0% ont trouvé ce document utile (0 vote)
32 vues188 pages

These Hugues

Transféré par

menavoarajimmy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
32 vues188 pages

These Hugues

Transféré par

menavoarajimmy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Réalité augmentée pour l’aide à la navigation.

SIGMA :
Système d’information Géographique Maritime
Augmentée
Olivier Hugues

To cite this version:


Olivier Hugues. Réalité augmentée pour l’aide à la navigation. SIGMA : Système d’information
Géographique Maritime Augmentée. Synthèse d’image et réalité virtuelle [[Link]]. Université Sciences
et Technologies - Bordeaux I, 2011. Français. �NNT : �. �tel-00655018�

HAL Id: tel-00655018


[Link]
Submitted on 24 Dec 2011

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
No d’ordre : 4428

THÈSE
présentée à

L’UNIVERSITÉ BORDEAUX I
ÉCOLE DOCTORALE DE MATHÉMATIQUES ET INFORMATIQUE
par Olivier Hugues

POUR OBTENIR LE GRADE DE


DOCTEUR
SPÉCIALITÉ : Informatique

Réalité Augmentée pour l’Aide à la


Navigation
SIGMA : Système d’Information Géographique Maritime
Augmenté

Soutenance : le 12 décembre 2011


Après avis de :

Mme. Indira Mouttapa-Thouvenin Rapporteur


M. Guillaume Moreau . . . . Rapporteur
Devant la Commission d’Examen composée de :
M. Julián Flórez Esnal Président
Professeur . . . . . . . . . . . . . . . . . . . . . . . . . . . Université de Navarre, Espagne
M. Ronan Gohlen Examinateur
Docteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MaxSea, France
Mme. Indira Mouttapa-Thouvenin Rapporteur
Maître de conférence (HDR) . . . . . . . . . Université de Compiègne, France
M. Guillaume Moreau Rapporteur
Professeur . . . . . . . . . . . . . . . . . . . . . . . . . . . École Centrale de Nantes, France
M. Jean-Marc Cieutat Directeur de Thèse
Enseignant-Chercheur . . . . . . . . . . . . . . . . ESTIA, France
M. Pascal Guitton Directeur de Thèse
Professeur . . . . . . . . . . . . . . . . . . . . . . . . . . . Université de Bordeaux I, France
M. Yves Le Thérisien Invité
Responsable Réalité virtuelle . . . . . . . . . DCNS, France

- 2011 -
“Une idée simple et fausse aura toujours plus
de poids qu’une idée vraie et complexe.”

Montesquieu.

À Delphine...
Remerciements
Difficile de savoir ce que j’aurais fait si j’avais suivi les conseils de nombreux enseignants du
collège de ne pas m’inscrire dans une filière professionnelle arguant que cette voie était dédiée
à ceux qui n’avaient pas trouvé place ailleurs. Oui ce fut difficile d’entendre le responsable
pédagogique dire “ quel gâchis ” à mon sujet. Oui, le système scolaire me permettait d’aller
dans une filière générale ou technologique. Oui, le passage d’un élève dans l’enseignement
professionnel était (l’est encore ?) vu comme un échec de la part des enseignants. Oui, j’ai
choisi délibérément de poursuivre mes études dans une filière professionnelle me menant
ainsi à la préparation de diplômes souvent mal perçus.
Difficile de savoir ce que j’aurais fait si je n’avais pas rencontré des individus extraordi-
naires durant mes études. Plus qu’une simple participation à mon enseignement, ils ont
énormément participé à mon éducation. Je pense par exemple à monsieur Faure (collège), à
monsieur Meyer qui m’a suivi pendant quatre ans, du BEP au baccalauréat professionnel ou
à madame Houet (BTS) qui m’a indiqué l’existence des prépa ATS. Comment aussi ne pas
penser à monsieur Bonnet qui, me voyant errer dans les couloirs en fin de prépa, à trouvé les
mots pour me motiver à passer les concours alors que j’y avais pleinement renoncé... Je n’ai
jamais eu l’occasion de lui parler de cela, et je sais qu’il ne pourra jamais lire ces quelques
mots... Que dire de Nadine Couture sans qui je n’aurais peut-être jamais découvert la réa-
lité augmentée. Impossible non plus de ne pas mentionner la présence quasi quotidienne et
constante de Jean-Marc Cieutat ainsi que les conseils avisés de Pascal Guitton qui m’ont
permis de mener à bien ce travail de thèse. Il est certain que ce présent document n’aurait
pas eu la même qualité si Guillaume Moreau et Indira Mouttapa-Thouvenin n’avaient pas
accepté de le rapporter et la soutenance aurait assurément eu une autre dimension si Julián
Flóres n’avait pas présidé le jury et si Ronan Golhen et Yves Le Thérisien n’y avait pas
participé.
Difficile de savoir ce que j’aurais fait si je n’avais pas eu un entourage familial exceptionnel.
Malgré certaines périodes difficiles, comme pour tout le monde, le soutien moral et matériel
de ma mère et de mon beau-père a été extraordinaire. Leur appui sans faille, tant d’un
point de vue personnel que professionnel m’a permis d’avancer avec l’agréable sensation de
toujours être épaulé par ceux qui compte. Le fait de m’avoir fait comprendre très tôt que je
travaillais pour moi et le fait d’avoir très vite compris que j’avais intégré ce précepte montre
une remarquable écoute et une attention toute particulière qu’il est nécessaire de souligner.
Difficile de savoir ce que j’aurais fait si je n’avais pas rencontré des amis remarquables. Je
pense par exemple à Fabrice Fulconnis (BEP/Bac) qui a toujours su que j’y arriverais avant
que je le sache moi-même. Je pense aussi à Goffrey Gaillardon avec qui le projet “ truffe
” (BTS) n’aurait pas était ce qu’il a été. Comment ne pas évoquer les différents projets
ESTIA effectués avec Jean-Sébastien Ghiglione et Florent Duchiron. Puisse nos relations
perdurer. Il est inutile de vouloir cacher l’empreinte laissée par les thésards de l’ESTIA dans
ce document. Qu’il s’agisse de moments de détente à jouer aux cartes ou de discussions
plus passionnées, ils ont tous participé à offrir un cadre social accueillant et généreux me
permettant d’en extraire une certaine motivation parfois disparue. Les discussions presque
quotidiennes avec Sébastien Bottecchia, me faisant ainsi profiter de son expérience, m’ont
permis d’appréhender certaines choses que j’aurais appris à mes dépens s’il n’avait pas été
là. Les réflexions entamées avec Olivier Nannipiéri m’ont permis d’initier une approche de
la réalité augmentée jusque-là réservée à la réalité virtuelle et j’espère que nos discussions
passionnantes vont continuer !
Difficile de savoir ce que j’aurais fait si je n’avais pas intégré au cours de mes différentes
formations des entreprises ouvertes et souples, mais surtout professionnelles et ambitieuses.
Qu’il s’agisse de travail d’été ou de stage, la source Sainte-Cécille ou de Lafarges Platres,
Carpenter SAS ou Intexalu, toutes m’ont été utiles aux différentes étapes de ma formation.
Concernant MaxSea, la convivialité de l’ensemble du personnel ainsi que de l’équipe diri-
geante m’a permis d’évoluer en toute quiétude au cours de cette thèse. Mathieu Jacquinot,
Olivier Robin, Sébastien Muhr, Pierre Aubeuf, Vincent Borry ou encore Cédric Duval ont
énormément participé à la mise en application de ces travaux de thèse malgré leurs respon-
sabilités respectives. Concernant l’ESTIA, le cadre de travail à échelle humaine m’a permis
d’y trouver une place et chacun des permanents y est certainement pour quelque chose.
Difficile de savoir ce que j’aurais fait si je ne t’avais pas rencontré il y a maintenant dix ans
tandis que je ne m’y attendais absolument pas. Tu m’as connu alors que je n’avais pas le
bac, tu m’as vu aujourd’hui soutenir ma thèse. Il m’est impossible de savoir ce que tu as
enduré pendant ces dix longues années d’étude. Tu es allée jusqu’à tout lâcher, travail, amis
et famille juste pour me suivre et rester ainsi proche de moi. Je ne saurais jamais prendre
la mesure de tous les sacrifices que tu as faits, car tu prétendais, en toute simplicité, que
c’était normal. Ton abnégation infaillible, ta profonde affection, ton altruisme incontestable,
ta bienveillance évidente, ta bonté indiscutable, ton désintéressement indubitable et ta
dévotion indéniable envers moi font de toi aujourd’hui, la personne que j’ai de plus cher au
monde. Sache que chaque ligne de cette thèse t’est dédiée, car tu es la seule personne, au
cours de toutes ces années, qui ne m’a pas laissé tomber. Et pour tout cela, Delphine, je te
dis merci. Merci.

4
Résumé
Réalité augmentée pour l’Aide à la Navigation.
Cette thèse a été réalisée sous convention CIFRE dans le cadre d’un partenariat entre la
société MaxSea et le pôle recherche de l’ESTIA. Cette thèse a été dirigée par Pascal Guitton
(Professeur des Universités à Bordeaux I), codirigée par Jean-Marc Cieutat (Enseignant-
Chercheur à l’ESTIA) et encadrée par Ronan Golhen (docteur et directeur technique de
MaxSea).
La demande exprimée initialement par la MaxSea, éditrice de logiciel de cartographie élec-
tronique d’aide à la navigation maritime, évoquait la nécessité d’améliorer la sécurité à bord
des navires, autant d’un point de vue matériel et environnemental qu’humain par l’utilisa-
tion de technologies innovantes. L’augmentation du trafic maritime amène les acteurs du
domaine à proposer de nouvelles solutions pour améliorer la sécurité afin que les différentes
activités comme la pêche, le commerce ou la plaisance puissent cohabiter. Dans ce contexte,
les éditeurs de logiciels maritimes visent à développer des plateformes toujours plus évoluées,
en proposant des environnements logiciels très riches. L’utilisateur doit composer avec cet
outil souvent complexe pour lequel les erreurs d’utilisation ne sont pas à exclure. Comme
le souligne Jie et Xian-Zhong (2008), les causes d’erreurs menant à l’accident maritime
souligne clairement le caractère perfectible des systèmes d’aide à la navigation. Ces travaux
de thèse se situent au croisement de plusieurs domaines que sont la Réalité Augmentée, la
Réalité Virtuelle, les systèmes d’information géographique, le génie logiciel, le traitement
d’image et les sciences humaines et sociales. Le premier axe de ce mémoire concerne les ap-
ports relatifs à l’amélioration des connaissances du domaine de la réalité augmentée. Nous
présentons dans ce chapitre les fondements de la réalité augmentée ainsi que ses origines,
sa finalité et notre définition technique. Par une approche centrée utilisateur, nous propo-
sons ensuite de souligner les implications de la réalité augmentée sur ce dernier en tant
qu’environnement perçu à la fois directement via ses sens et via des interfaces comporte-
mentales. Nous proposons ensuite, basés sur nos définitions et sur les travaux en réalité
virtuelle, notre modèle d’interaction et d’immersion en réalité augmentée nommé 3i2RA.
L’axe suivant permet de préciser la problématique liée à l’utilisation d’un système d’aide
à la navigation par un état de l’art spécifique aux systèmes d’information géographique.
Nous présentons dans ce chapitre les systèmes d’information géographique et plus particu-
lièrement ceux destinés à l’aide à la navigation. Nous illustrons la chaîne de traitement des
informations depuis l’acquisition jusqu’à l’affichage. Puisqu’il s’agit d’utiliser ces systèmes
pour l’aide à la navigation, nous présentons les différents modèles génériques de navigation
qui ont été proposés dans la littérature et nous détaillons plus particulièrement le modèle
apte à prendre en compte les spécificités des situations rencontrées dans le domaine mari-
time. Nous proposons ensuite un tour d’horizon des systèmes d’information géographique
utilisant la réalité augmentée que nous avons décidé de ranger en deux catégories selon
l’objet des augmentations. Enfin, nous détaillons les systèmes d’information géographique
conçus pour être utilisés en navigation maritime et nous montrons les difficultés rencontrées
lors de l’utilisation de tels systèmes. Des hypothèses sont proposées concernant les amélio-
rations possibles pour ces systèmes dont la principale et de proposer à l’utilisateur dans une
vue unique des informations issues d’une approche globale et locale de la tâche de naviga-
tion. Le troisième axe présente nos apports méthodologiques concernant la conception d’un
outil d’aide à la navigation. L’objectif est de proposer une démarche permettant d’interfacer
la modélisation des activités des navigateurs et une méthode agile de développement d’un
logiciel. L’approche permet de faire le lien entre la modélisation par “tâches” des actions
d’un individu et la description de futures fonctionnalités logicielles servant de point d’entrée
à la méthode agile la plus pratiquée, nommée “Scrum”. Pour illustrer notre approche, après
une présentation rapide de la méthode “Scrum”, nous proposons un cas pratique d’appli-
cation pour lequel nous nous sommes rapprochés de la Société Nationale de Sauvetage en
Mer (SNSM). Enfin, le dernier axe présente nos apports technologiques mis en œuvre afin
de réaliser les fonctionnalités demandées. Nous allons présenter dans ce chapitre l’architec-
ture logicielle basée sur trois composants principaux et l’architecture matérielle de notre
Système d’Information Géographique Maritime Augmenté, SIGMA. Le premier composant
fournit les services nécessaires aux connexions du système d’information géographique avec
tous types de caméra vidéo. Le deuxième composant s’occupe de la création d’un espace
mixte en utilisant la vidéo fournie par le composant précédent et les données numériques
géoréférencées du système d’information géographique. Enfin, le troisième composant per-
met d’enregistrer et de rejouer toutes les données numériques synchronisées avec la vidéo.
Nous présentons un cadre d’application de SIGMA pour la surveillance du trafic maritime.

Mots-clés :
Réalité augmentée, environnement mixte, système d’information géographique, ECDIS,
analyse d’image, réalité virtuelle, méthode agile, fusion de données.

8
Abstract
Augmented Reality for Navigation Assistance.
This thesis was part of a CIFRE agreement between MaxSea and the ESTIA-Research labo-
ratory. It was directed by Pascal Guitton (University Lecturer at Bordeaux I), co-directed
by Jean-Marc Cieutat (Lecturer and Researcher at ESTIA) and supervised by Ronan Gol-
hen (PhD and technical director at MaxSea). The request initially made by the company
referred to the need to improve safety on board vessels, from a hardware, environmental and
human point of view. MaxSea is an electronic computer assisted navigation map publisher.
This thesis was therefore situated at the crossroads of several fields such as Augmented
Reality, Virtual Reality, geographic information systems, software engineering, image pro-
cessing and human and social sciences. The increase in sea traffic has led players in the field
to propose new solutions to improve safety so that different activities like fishing, trade
and yachting can co-exist. In this context, maritime software publishers are aiming to de-
velop increasingly sophisticated platforms with very rich software environments. The user
must deal with this often very complex tool for which user error cannot be excluded. As
highlighted by Jie et Xian-Zhong, it is possible to synthesise the causes of errors leading
to sea accidents according to different categories and this synthesis clearly emphasizes the
perfectible nature of computer assisted navigation systems. The first section of this thesis
concerns contributions relating to improving knowledge in the field of augmented reality.
In this chapter we present the basis of augmented reality as well as its origins, its purpose
and our own technical definition. Based on a user centred approach, we then highlight the
implications of augmented reality on the user as an environment perceived both directly via
the senses and via behavioural interfaces. We then propose, based on our definitions and
work on virtual reality, our model of interaction and immersion in augmented reality known
as 3i2RA. In the following section we describe the issue linked to using a computer assisted
navigation system with a state of the art specific to geographical information systems. In
this chapter we present geographical information systems and more particularly those aimed
at sailing. We illustrate the information processing chain from acquisition to display. Since
this involves using these systems for computer assisted navigation, we present the different
generic navigation models which are proposed in the literature and we more specifically
detail the models suited to taking into account the specificities of situations encountered in
the field of sailing. We then propose an overview of geographical information systems using
augmented reality which we have decided to divide into two categories according to the
object of augmentations. Finally, we describe geographical information systems designed to
be used in maritime navigation and we show the difficulties encountered when using such
systems. Hypotheses are proposed with regard to possible improvements for these systems
which are based on providing users in a single view both global and local information with
regard to the task of sailing. The third section presents our methodological contributions
regarding the design of a computer assisted navigation tool. The aim is to provide a me-
thod enabling the modelling of sailors’ activities to be interfaced with an agile software
development method. The method links together modelling according to the “tasks” of an
individual’s actions and the description of future software functionalities acting as a point
of departure for the most widely used agile method, known as the “Scrum”. To illustrate
our method, after a brief presentation of the “Scrum”, we present a case study on the design
of a geographical information system for computer assisted navigation for which we contac-
ted the National Life Rescue Society (SNSM). The final section presents the technological
contributions we implemented so as to create the requested functionalities. In this chapter
we present the software architecture based on three main components and the hardware
architecture of our Augmented Maritime Geographical Information System or SIGMA in
French. The first component provides the services needed for all types of video camera to
connect to the geographical information system. The second component deals with crea-
ting a mixed space using the video provided by the previous component and the digital
georeferenced data from the geographical information system. Finally, the third component
enables all the digital data synchronised with the video to be recorded and replayed. We
present a SIGMA application framework for maritime traffic surveillance.

Keywords :
Augmented reality, mixed environment, geographic information system, ECDIS, image pro-
cessing, virtual reality, agile software development, data fusion.

10
Table des Matières

Liste des Figures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13


Liste des Tableaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Liste des Abréviations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Chapitre 1 : Introduction Générale 23


Contexte général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Constat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Structure du mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Chapitre 2 : Fondements de la Réalité Augmentée 29


1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2 Définition de la réalité augmentée . . . . . . . . . . . . . . . . . . . . . . . . 31
2.1 Origine et terminologie . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2 La réalité augmentée : un concept ou une technologie ? . . . . . . . . 31
2.3 Les classifications impliquant la réalité augmentée . . . . . . . . . . 32
2.3.1 Taxonomies conceptuelles . . . . . . . . . . . . . . . . . . . 33
2.3.2 Taxonomies technologiques . . . . . . . . . . . . . . . . . . 33
2.3.3 Prise de recul . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4 Finalité de la réalité augmentée . . . . . . . . . . . . . . . . . . . . . 38
2.5 Définition fonctionnelle . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5.1 Perception ou action augmentée . . . . . . . . . . . . . . . 39
2.5.2 Réalité Diminuée . . . . . . . . . . . . . . . . . . . . . . . . 40
2.5.3 Environnement Imaginaire . . . . . . . . . . . . . . . . . . 41
2.6 De la réalité augmentée au monde mixte . . . . . . . . . . . . . . . . 47
2.7 Définition technique . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.7.1 Interfaces comportementales . . . . . . . . . . . . . . . . . 49
2.7.2 Les interfaces de la modalité visuelle . . . . . . . . . . . . . 50
3 Classification globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1 Synthèse de notre classification . . . . . . . . . . . . . . . . . . . . . 56
4 La boucle “perception, cognition, action” . . . . . . . . . . . . . . . . . . . . 57
5 Modèle 3i2RA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.1 Immersion et Interaction (I2 ) . . . . . . . . . . . . . . . . . . . . . . 60
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

Chapitre 3 : Les Systèmes d’Information Géographique 69


1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2 Les étapes d’un système d’information géographique . . . . . . . . . . . . . 70
3 Chaîne de traitement des informations . . . . . . . . . . . . . . . . . . . . . 71
3.1 Symbolisation des données . . . . . . . . . . . . . . . . . . . . . . . . 73
4 La tâche de navigation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.1 Les modèles de navigation . . . . . . . . . . . . . . . . . . . . . . . . 74
4.2 SIG et RA : un tour d’horizon . . . . . . . . . . . . . . . . . . . . . 76
TABLE DES MATIÈRES TABLE DES MATIÈRES

4.2.1 Carte Augmentée . . . . . . . . . . . . . . . . . . . . . . . 76


4.2.2 Territoire Augmenté . . . . . . . . . . . . . . . . . . . . . . 78
5 Les SIG pour la Navigation Maritime . . . . . . . . . . . . . . . . . . . . . . 84
5.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.1.1 Communications . . . . . . . . . . . . . . . . . . . . . . . . 86
5.1.2 Affichage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.1.3 Base de données cartographique . . . . . . . . . . . . . . . 87
5.1.4 Base de données utilisateur . . . . . . . . . . . . . . . . . . 87
5.1.5 Particularité . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2 Utilisation de la réalité augmentée . . . . . . . . . . . . . . . . . . . 87
5.3 Les difficultés rencontrées . . . . . . . . . . . . . . . . . . . . . . . . 89
5.3.1 Les erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.4 Hypothèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

Chapitre 4 : Conception d’un SIG Augmenté pour la Navigation 93


1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2 La méthode “Scrum” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.1 Grands principes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.2 Organisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.3 Déroulement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2.4 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2.5 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4 La sécurité maritime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.1 Société Nationale de Sauvetage en Mer . . . . . . . . . . . . . . . . . 101
4.1.1 Rôle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.1.2 Organisation . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5 Mise en œuvre de la méthodologie . . . . . . . . . . . . . . . . . . . . . . . 103
5.1 Les entretiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 Définition des situations . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3 Modélisation d’une situation . . . . . . . . . . . . . . . . . . . . . . 106
5.4 Affinage de la géométrie du modèle . . . . . . . . . . . . . . . . . . . 109
5.5 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.6 Facteurs à prendre en compte . . . . . . . . . . . . . . . . . . . . . . 111
5.7 Démarche du PO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.8 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.9 Caractère non systémique . . . . . . . . . . . . . . . . . . . . . . . . 114
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

Chapitre 5 : SIGMA : SIG Maritime Augmenté 117


1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
2 Présentation générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3 Architecture matérielle générale . . . . . . . . . . . . . . . . . . . . . . . . . 119
4 Architecture logicielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.1 Composant VideoCamera . . . . . . . . . . . . . . . . . . . . . . . . 122
4.1.1 Interface graphique . . . . . . . . . . . . . . . . . . . . . . 123
4.2 Composant RecorderPlayer . . . . . . . . . . . . . . . . . . . . . . . 125
4.2.1 Fonctionnalité . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.2.2 Difficultés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

12
TABLE DES MATIÈRES TABLE DES MATIÈRES

4.2.3 Détails . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125


4.3 Composant AugmentedReality . . . . . . . . . . . . . . . . . . . . . . 128
5 Méthode générique de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.1 Constat et besoin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.2 Méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.3 Position des capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.4 Définitions des opérateurs . . . . . . . . . . . . . . . . . . . . . . . . 134
5.4.1 Opérateurs statiques . . . . . . . . . . . . . . . . . . . . . . 134
5.4.2 Opérateurs dynamiques . . . . . . . . . . . . . . . . . . . . 135
5.4.3 Modèle de la caméra . . . . . . . . . . . . . . . . . . . . . . 136
5.5 Pose de la tête de la caméra . . . . . . . . . . . . . . . . . . . . . . . 137
5.6 Compensation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
5.6.1 Modèle Géométrique Inverse . . . . . . . . . . . . . . . . . 138
5.6.2 Détermination du nouveau repère . . . . . . . . . . . . . . 139
5.6.3 Problèmes de précision . . . . . . . . . . . . . . . . . . . . 139
6 Le meilleur des deux mondes : méthode hybride . . . . . . . . . . . . . . . . 140
6.1 Détection de l’horizon . . . . . . . . . . . . . . . . . . . . . . . . . . 141
6.2 Analyse d’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6.3 Performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.4 Association vidéo et cartographie . . . . . . . . . . . . . . . . . . . . 146
7 Une application : la détection de cible . . . . . . . . . . . . . . . . . . . . . 149
7.1 Implémentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.2 Un nouveau cadre d’application : le traffic portuaire . . . . . . . . . 149
8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

Chapitre 6 : Conclusion Générale 157


Rappel du contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
Les apports . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
Limitations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

Bibliographie 161

Annexes 177
1 Tests Unitaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
2 Communication avec la centrale inertielle . . . . . . . . . . . . . . . . . . . 177
3 Format d’enregistrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

13
Liste des Figures

1.1 Les différentes sources d’informations et leurs implications sur l’utilisateur. 25

2.1 Le continuum de Milgram et Kishino (1994). . . . . . . . . . . . . . . . . . 34


2.2 Inclusion de la virtualité et de la réalité. . . . . . . . . . . . . . . . . . . . . 35
2.3 Exclusion de la virtualité dans la réalité. . . . . . . . . . . . . . . . . . . . . 35
2.4 Compossibilité entre réalité et virtualité. . . . . . . . . . . . . . . . . . . . . 36
2.5 Les deux fonctionnalités de base de la réalité augmentée. . . . . . . . . . . . 39
2.6 Illustration de la réalité diminuée extraite de Zokai et al. (2003). . . . . . . 40
2.7 Résumé de la taxonomie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.8 Exemples fonctionnels d’applications basées vision. . . . . . . . . . . . . . . 44
2.9 Exemples fonctionnels d’applications basées vision. . . . . . . . . . . . . . . 45
2.10 Exemples fonctionnels d’applications basées vision. . . . . . . . . . . . . . . 46
2.11 Exemples fonctionnels d’applications basées vision. . . . . . . . . . . . . . . 47
2.12 Détails de la description des systèmes selon les quatre axes principaux. . . . 51
2.13 Pourcentage de chaque élément de l’espace de caractéristiques par rapport à
la totalité des systèmes prit en compte. . . . . . . . . . . . . . . . . . . . . 57
2.14 Boucle “perception, cognition, action” en réalité virtuelle. . . . . . . . . . . 59
2.15 Boucle “perception, cognition, action” en réalité augmentée. . . . . . . . . . 59
2.16 Schéma anthropocentrique de la perception du monde mixte par l’homme. . 61
2.17 Proposition d’une modélisation technique du monde réel. . . . . . . . . . . . 62
2.18 Modèle 3i2RA pour la réalité augmentée. . . . . . . . . . . . . . . . . . . . 64
2.19 Modèle de référence en réalité virtuelle proposé par Fuchs et al. (2001). . . 65

3.1 Chaîne de traitement classique des données d’un système d’information géo-
graphique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.2 Modèle spatio-temporel de la chaine de traitement des données d’un système
d’information géographique utilisant un système dépendant de la position et
de l’orientation de l’utilisateur. . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.3 Le modèle de navigation (traduit et adapté) de Wickens et Prevett (1995)
qui représente la navigation locale et globale. . . . . . . . . . . . . . . . . . 75
3.4 Exploration de données géographiques par modification du point de vue des
données. Application proposée par Liarokapis et al. (2005). Cas de compré-
hension augmenté. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.5 Visualisation de données géographiques et interactions. Application proposée
par Hedley et al. (2002) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.6 Métaphores d’interaction (exemple du slider) proposée par Asai et al. (2008) 77
3.7 Exploration d’image depuis la cartographie proposée par Reitmayr et al.
(2005). Réalité documentée. . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.8 Deux exemples d’applications de réalité augmentée pour l’aide à la navigation
en environnement intérieur proposée par Reitmayr et Schmalstieg (2003a).
Cas de visibilité augmentée. . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.9 Une vue de monuments depuis le pont de Westminster (Londres) proposée
par Radburn (2006). Cas de réalité à compréhension augmentée. . . . . . . 80
LISTE DES FIGURES LISTE DES FIGURES

3.10 [Link] : une application de réalité augmentée permettant d’obtenir des


informations sur les sommets environnants.. C’est un cas de réalité à com-
préhension augmentée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.11 Un exemple d’augmentation du démonstrateur ARVino de King et al. (2005).
Réalité à visibilité augmentée. . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.12 Détail de l’Augurscope de (Schnädelbach et al., 2002). Visibilité augmentée. 81
3.13 Mode de visualisation “Rayon-x” des informations d’un chantier de construc-
tion de (Guo et al., 2008). Visibilité augmentée. . . . . . . . . . . . . . . . . 81
3.14 Visualisation d’infrastructures souterraines. Visibilité augmentée. . . . . . . 82
3.15 Exemple d’augmentation lors du suivi d’un chemin en ville (Reitmayr et
Schmalstieg, 2003b). Visibilité augmentée combinée avec de la réalité docu-
mentée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.16 Application d’aide à la conduite automobile combinant système d’informa-
tion géographique et réalité augmentée . . . . . . . . . . . . . . . . . . . . 83
3.17 Architecture globale d’un système embarqué d’aide à la navigation. . . . . . 84
3.18 Différentes plateformes matérielles et logicielles d’application d’aide à la na-
vigation maritime. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.19 Illustration de la technique de PhotoFusion de MaxSea (2011). . . . . . . . 86
3.20 Une scène maritime augmentée par des informations AIS d’un navire. Cas
de compréhension augmentée. . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.21 Réalité augmentée pour l’aide à la navigation maritime. Réalité à compré-
hension augmentée combinée à de la visibilité augmentée. . . . . . . . . . . 88

4.1 L’organisation pratique des équipes proposée par la méthode “scrum”. . . . 95


4.2 Échanges maritimes commerciaux mondiaux entre début 1991 et fin 2010. . 99
4.3 Hiérarchie de la fonction SAR française. . . . . . . . . . . . . . . . . . . . . 100
4.4 Répartition des interventions en 2010 publiée par le CROSS. . . . . . . . . 101
4.5 Organigramme de la SNSM sur le plan national. . . . . . . . . . . . . . . . 103
4.6 Illustration des deux couloirs maritimes pour la circulation des navires entre
l’Angleterre et la France. Image extraite du site internet MarineTraffic (2011).107
4.7 Arbre des tâches créé en fonction des entretiens et observations pour la si-
tuation “s2”. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.8 Fréquences d’apparition des différentes tâches de la situation “s2”. . . . . . . 112

5.1 Une vue de l’interface graphique globale du système d’information géogra-


phique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.2 Architecture materielle globale de SIGMA. . . . . . . . . . . . . . . . . . . 120
5.3 Illustration de l’intégration de la plateforme matérielle. . . . . . . . . . . . . 120
5.4 Liens entre les trois composants principaux de SIGMA. . . . . . . . . . . . 121
5.5 Architecture logicielle du composant VideoCamera de SIGMA. . . . . . . . 123
5.6 Trois vues de l’interface graphique du système avec une caméra thermique
connectée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
5.7 Architecture logicielle du composant RecorderPlayer de SIGMA. . . . . . . 126
5.8 Organisation fonctionnelle du composant RecorderPlayer. . . . . . . . . . . 127
5.9 Détails de la machine à nombre fini d’état pour les objets “Recorder ” et
“Player”. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
5.10 Architecture logicielle du composant AugmentedReality de SIGMA. . . . . 129
5.11 Description globale de la fonctionnalité de calcul de la position et de l’orien-
tation d’un repère associé au navire dans le repère géodésique mondial. . . . 132
5.12 Les rotations selon le modèle Roulis, Tangage, Lacet. . . . . . . . . . . . . . 133

16
LISTE DES FIGURES LISTE DES FIGURES

5.13 Transformation du repère Rj vers le repère Ri . . . . . . . . . . . . . . . . . 134


5.14 Exemple de configuration des capteurs dans le Repère Bateau (RB). . . . . 135
5.15 Modèle géométrique de la caméra. . . . . . . . . . . . . . . . . . . . . . . . 136
5.16 Erreur et systèmes de positionnement. . . . . . . . . . . . . . . . . . . . . . 140
5.17 Espace projectif et degrés de liberté pour la détection de l’horizon. . . . . . 141
5.18 Limitation de la zone d’analyse d’image par centrale inertielle. . . . . . . . 142
5.19 Présentation des différentes étapes de notre analyse d’image sur une image
thermique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
5.20 Quelques résultats. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
5.21 Évaluation des performances de l’algorithme en fonction de la résolution des
images. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.22 Définition des différentes zones de l’imageet interfaces pour les réglages. . . 146
5.23 Quelques exemples du mélange entre le flux vidéo thermique et la cartogra-
phie ainsi que des augmentations vectorielles. . . . . . . . . . . . . . . . . . 147
5.24 Un exemple du mélange entre la cartographie et la vidéo. . . . . . . . . . . 148
5.25 Exemple d’une situation de surveillance du traffic maritime. . . . . . . . . 148
5.26 Détection des navires sur une image thermique grand angle (130°) avec l’al-
gorithme de Samama (2010). . . . . . . . . . . . . . . . . . . . . . . . . . . 149
5.27 Les points rouges sur la cartographie sont les navires détectés sur la vidéo
dont la position a été estimée à partir des données de distance et de cap. Le
tableau regroupe les informations de toutes les cibles. Un cadre permettant
de faire apparaître l’image de la cible ainsi que ses informations est accessible
en cliquant simplement sur l’objet qui représente un navire. Le quart de cercle
rouge illustre toujours le champ de vision de la caméra. . . . . . . . . . . . 151
5.28 Les objets synthétiques représentant les navires sur la vidéo sont géoréféren-
cés dans l’environnement du système d’information géographique ainsi que
la vidéo. Pour illustrer le recalage au lecteur, un trait relie son propre navire
(en rouge) jusqu’à l’objet qui représente le navire extrait de la vidéo puis
se continue jusqu’à ce qu’il croise la vidéo. On voit bien que chaque cible se
projette sur les cibles de la vidéo. . . . . . . . . . . . . . . . . . . . . . . . . 152
5.29 Quelques exemples de la vue egocentrée proposée à l’utilisateur. . . . . . . 153

6.1 Format d’une phrase NMEA délivrée par la centrale inertielle. . . . . . . . . 178
6.2 Implémentation de la récupération des données d’attitude du bateau dans le
composant “IO”. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
6.3 Diagramme de classes du composant RecorderPlayer. . . . . . . . . . . . . . 179
6.4 Diagramme de classe du composant AugmentedReality. . . . . . . . . . . . . 180
6.5 Diagramme de classes du composant VideoCamera. . . . . . . . . . . . . . . 181
6.6 Diagramme de classe de l’implémentation de la solution proposée par Auto-
matic Sea Vision (2011) dont l’algorithme d’analyse est présenté par Samama
(2010) dans le composant “Mobile” du système d’information géographique. 182
6.7 Interface graphique permettant d’accéder aux fonctionnalités du composant
“RecorderPlayer ”. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

17
Liste des Tableaux

2.1 Description des valeurs des deux variables temporelle et modale. . . . . . . 41


2.2 Récapitulatif selon l’espace de caractéristique. . . . . . . . . . . . . . . . . . 52
2.3 Récapitulatif selon l’espace de caractéristique (suite). . . . . . . . . . . . . . 53
2.4 Récapitulatif selon l’espace de caractéristique (suite). . . . . . . . . . . . . . 54
2.5 Récapitulatif selon l’espace de caractéristique (suite). . . . . . . . . . . . . . 55

4.1 Exemple d’un “backlog” dans lequel le PO ajoute les futurs développements. 96
4.2 Interview d’un patron de la SNSM. . . . . . . . . . . . . . . . . . . . . . . . 104
4.3 Interview d’un canôtier de la SNSM. . . . . . . . . . . . . . . . . . . . . . . 105
4.4 Situations de navigation extraites après entretiens. . . . . . . . . . . . . . . 106
4.5 Coefficients permettant de définir la règle de calcul de la priorité d’une tâche. 111
4.6 Proposition d’une liste de fonctionnalités permettant de guider le PO dans
l’ajout des “backlog item”. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

6.1 Données à enregistrer et format optimisé pour l’enregistrement. . . . . . . . 183


6.2 Taille du fichier d’enregistrement des données en fonction du nombre de mobiles.183
Liste des Abréviations

AIS Système d’Identification Automatique (Automatic Identification Sys-


tem)
ARPA Système d’aide de pointage radar automatique (Automatic Radar Plot-
ting Aid)
CCRP Consistent Common Reference Point
CROSS Centres Regionaux Opérationnels de Surveillance et de Sauvetage
ECDIS Electronic Chart Display and Information System ou Système de vi-
sualisation des cartes électroniques et d’information en français.
FPS Frame Per Second
HLSL High Level Shader Language
MGI Modèle Géométrique Inverse
MNS Modèles Numériques de Surface
MNT Modèles Numériques de Terrain
Mo Mega Octé
MRCC Maritime Rescue Coordination Center
MVVM Model View ViewModel
NMEA National Marine Electronics Association
OMI Organisation Maritime Internationnale
OST Optical See-Throuth
SAR Search and Rescue
SIGMA Système d’Information Géographique Maritime Augmentée
SIM Système Interactif Mixte
SMDSM Système Mondial de Détresse et de Sécurité en Mer
SNSM Société Nationale de Sauvetage en Mer
SOLAS Safety of Live at Sea
T.A.C Télé-Assistance Collaborative
UML Unified Modeling Language
UMPC Ultra Mobile Personal Computer
UTC Coordinated Universal Time
VHF Radio très haute fréquence (very high frequency)
VST Video See-Throuth
XML Extensible Markup Language
Chapitre 1

Introduction Générale

Sommaire
Contexte général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Constat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Structure du mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Contexte général
Ces travaux de thèse se situent au croisement de plusieurs domaines que sont la Réalité
Augmentée, la Réalité Virtuelle, les systèmes d’information géographique, le génie logiciel,
le traitement d’image et les sciences humaines et sociales. La demande exprimée initiale-
ment par la société MaxSea 1 évoquait la nécessité d’améliorer la sécurité à bord des navires,
autant d’un point de vue matériel et environnemental qu’humain. Avec un environnement
déjà considéré comme hostile, l’augmentation constante du trafic maritime complique la
situation et aux risques coutumiers s’ajoutent des dangers spécifiques à certaines zones du
globe comme les actes de piraterie par exemple. Avec l’évolution de l’informatique, toujours
plus de navires sont équipés d’ordinateurs assez puissants pour apporter au personnel de
bord une quantité d’informations substantielles non négligeable. Ces systèmes sont utilisés
pour permettre une progression dans des environnements hostiles que sont les océans, les
mers ou les rivières. La société MaxSea a bien anticipé cette évolution et a fondé sa réputa-
tion depuis 1984 sur le développement de logiciels exploitant les capacités de l’informatique
embarquée. Ces logiciels, nommés ECDIS, pour “Electronic Chart Display and Information
System” sont soumis à la réglementation définie par l’Organisation Maritime Internation-
nale (OMI). L’OMI décrit dans la Résolution A817/19 que “les ECDIS ont pour principal
objectif de contribuer à renforcer la sécurité de la navigation” (sauvegarde de la vie en mer,
sauvegarde des biens et de l’environnement). Ces outils logiciels font partie d’une catégorie
plus générale, les systèmes d’information géographique (SIG), que nous détaillerons
dans le Chapitre 3. L’environnement maritime arrive trop souvent à prendre en défaut les
navigateurs. C’est en effet ce que Frod (2006) a constaté dans l’analyse des incidents et ac-
cidents maritimes pour le compte de l’Organisation Maritime Internationnale (OMI). Ces
études ont montré que 90% des blessés à travers le monde lors d’incidents ou d’accidents liés
au domaine maritime sont causés par des erreurs humaines et plus particulièrement lors de
l’utilisation d’outils d’aide à la navigation. Concernant cette dernière catégorie, les erreurs
sont à attribuer à un manque de connaissance de l’environnement de la part de l’équipe de
pont et aux erreurs de conception et/ou d’utilisation de l’outil d’aide.

1. Société éditrice de logiciel de cartographie d’aide à la navigation maritime.


Chapitre 1. Introduction Générale

Constat

Dans ce contexte, les éditeurs de logiciels maritimes visent à développer des plateformes
toujours plus évoluées, en proposant des environnements logiciels très riches et une mise à
jour en “temps réel” de nombreuses informations. Ces sociétés sont en nombre conséquent
à être positionnées sur le marché du logiciel de navigation maritime embarqué et nous
invitons le lecteur à se rendre en Section 5 du Chapitre 3, afin d’en avoir un aperçu détaillé.
C’est avec ces logiciels d’aide à la navigation souvent complexe pour lesquels les erreurs
d’utilisation ne sont pas à exclure que l’utilisateur doit composer. De plus, ces outils étant
conçus sur le même modèle que la traditionnelle carte papier, la plupart profitent peu
des avantages de l’informatique. Certes, l’enregistrement systématique des données ou la
rapidité du changement de l’échelle de la cartographie rend de nombreux services, mais
en quoi l’utilisation de cartes électroniques limite ou élimine-t-elle les problématiques de
l’utilisation de la carte papier pour la navigation proprement dite ? Comme le souligne Jie
et Xian-Zhong (2008), il est possible de synthétiser les causes d’erreurs menant à l’accident
maritime selon différentes catégories (détaillées en Section 5.3.1), cette synthèse soulignant
clairement le caractère perfectible des systèmes d’aide à la navigation.

Problématique

La navigation, en terme général, est définie par Wiener et al. (2008) comme l’action de plani-
fier et de suivre un parcours vers un but. Différents modèles ont été développés concernant
la navigation et la stratégie mise en œuvre et les auteurs s’accordent à dire qu’il existe
deux stratégies principales : la navigation égocentrée 2 et la navigation allocentrée 3 . Nous
reviendrons sur les différents modèles de navigations proposés dans la littérature en Sec-
tion 4.1 du Chapitre 3. Tous les outils d’aide à la navigation maritime actuellement en
vigeur sont des aides à la représentation de l’environnement comme carte. La finalité est de
proposer à l’individu une représentation non perceptible naturellement alors qu’il a accès
au travers de ses sens à la représentation égocentrée. Ainsi, la technologie se devait d’aider
l’individu à se construire mentalement la carte de son environnement. Cependant, Jie et
Xian-Zhong (2008) remarquent que malgré cette aide, les difficultés de navigation sont tou-
jours présentes. Comment alors, limiter les erreurs d’interprétations des informations issues
des systèmes d’aide à la navigation ? La problématique vient du fait que lors de l’utilisation
en situation d’un outil, les sources d’informations pour l’utilisateur ne sont pas identiques
(Figure 1.1), et le passage de l’une à l’autre peut entraîner des “ruptures de contexte”.
Loin d’une problématique spécifique à la navigation, les chirurgiens par exemple doivent
parfois extraire un avis médical en utilisant plusieurs sources d’information (imagerie à
raisonnance magnétique, radio, leur connaissance, etc.). Les chercheurs de pétrole doivent
composer avec différentes carte géologiques sous différentes formes. D’un point de vue spé-
cifique à la navigation, la difficulté semble provenir de la mise en correspondance entre les
différents modèles mentaux (A 6= B 6= C) qui découlent de chaque source pour en extraire
une représentation mentale unique et cohérente.

2. Stratégie de navigation mise en œuvre par un individu visant à utiliser les informations perceptibles
depuis son point de vue.
3. Stratégie de navigation mise en œuvre par un individu visant à utiliser les informations obtenues
depuis une carte générée mentalement. On parle aussi de carte cognitive.

24
Chapitre 1. Introduction Générale

Source d’in-
formation

Cartographie Environnement
Connaissances
éléctronique réel

Perception Perception
(sémiologique) (phénoménologique)

Modèle mental A Modèle mental B Modèle mental C

Représentation
Mentale

Figure 1.1: Les différentes sources d’informations et leurs implications sur l’utilisateur.

Contributions
Conceptuelles
Dans ces travaux de thèse, nous avons été amenés à utiliser la réalité augmentée ou la
virtualité augmentée et nous expliquerons en quoi il est possible de ne pas prendre en
compte la distinction initialement soulignée par Milgram et al. (1994) entre ces deux prin-
cipes. Après une analyse des différentes définitions de la réalité augmentée proposées dans
la littérature, nous proposons notre définition fonctionnelle et technique appuyée par une
taxonomie permettant de décrire et de classifier les environnements à partir de leur utilisa-
tion fonctionnelle. Cette contribution conceptuelle a pour finalité de proposer une définition
suffisamment large pour ne pas être limitative et suffisamment précise pour avoir une por-
tée pratique. Dans cette optique, nous proposons un modèle d’interaction et d’immersion
adapté à la réalité augmentée dont la base est le modèle 3i2 présenté par Fuchs et al. (2001),
que nous avons nommé le modèle 3i2RA.

Appliquées aux domaine d’outil d’aide à la navigation


Premièrement, des implications pratiques dérivent directement des contributions concep-
tuelles de cette thèse. Notre taxonomie, en plus d’être descriptive et comparative, est aussi
générative. En effet, à l’image du tableau périodique des éléments, toutes les cases de notre
taxonomie ne sont pas encore remplies 4 !
Deuxièmement, nous proposons une méthode permettant de faire le lien entre une modélisa-
tion de l’activité d’un individu sous forme de tâche et une méthode agile de développement
logiciel. L’objectif étant de disposer d’une démarche permettant de valoriser l’approche er-
gonomique auprès des équipes de développement. Ce faisant, les nouvelles fonctionnalités
d’un logiciel ne sont plus simplement guidées par une persone qui pense savoir ce qui est
bon pour le ou les utilisateurs, mais par une démarche ergonomique scientifique d’analyse
4. Concernant les environnements imaginaires par exemple, en Section 2.5.3 du Chapitre 2

25
Chapitre 1. Introduction Générale

du comportement à la fois en et hors situation. Nous présentons notre expérience quant à


la mise en place de cette démarche.
Enfin, nous proposons, avec l’utilisation de la réalité augmentée et virtualité augmentée,
une solution permettant de faciliter l’accès à certaines informations lors de la navigation.
L’idée générale est relativement simple. L’objectif est de permettre à l’individu en situation
de navigation de disposer dans une unique vue, des informations normalement issues à la
fois des vues allocentrée et égocentrée. Pour ce faire, nous avons développé une méthode
hybride innovante permettant de géoréférencé un flux vidéo dans un environnement virtuel
3D en temps réel.

Structure du mémoire
La structure globale de ce mémoire se présente sous quatre axes différents. Le premier
axe, plutôt théorique, concerne les apports relatifs à l’amélioration des connaissances du
domaine de la réalité augmentée. Cet axe est présenté dans le Chapitre 2. Le deuxième
axe propose un état de l’art spécifique aux systèmes d’information géographique afin de
préciser la problématique liée à l’utilisation d’un système d’aide à la navigation. Cet axe
est présenté dans le Chapitre 3. Le troisième axe présente nos apports méthodologiques
concernant la conception d’un outil d’aide à la navigation. Cet axe est présenté dans le
Chapitre 4. Enfin, le dernier axe présente nos apports technologiques afin de réaliser les
fonctionnalités demandées. Cet axe est présenté dans le Chapitre 5. Voici les détails des
différents chapitres de ce mémoire.
Chapitre 1 Ce chapitre introductif présente le contexte ainsi que la problématique, les dif-
férentes contributions conceptuelles et pratiques de ces travaux de thèse et la structure
générale du mémoire ;
Chapitre 2 Ce chapitre propose les fondements de la réalité augmentée. Le lecteur trou-
vera dans ce chapitre la finalité de la réalité augmentée, une définition technique, une
taxonomie fonctionnelle des environnements de réalité augmentée et une classification.
Nous proposons ensuite un modèle d’interaction et d’immersion de l’utilisateur dans
ce type d’environnement dont les trois pôles principaux sont l’environnement virtuel,
l’environnement naturel et l’utilisateur. La première partie de ce chapitre concernant
la taxonomie fonctionnelle a fait l’objet des communications dans une conférence na-
tionale et dans un livre collectif international : Fuchs et al. (2010); Hugues et al.
(2011b) ;
Chapitre 3 Ce chapitre présente les systèmes d’information géographique. Après l’identi-
fication des différents composants d’un système d’information géographique ainsi que
la présentation de la chaine de traitement des données, une vue générale de la tâche
de navigation est présentée pour ensuite traiter du cas particulier de la navigation
maritime. Nous présentons un état de l’art des outils génériques d’aide à la naviga-
tion puis plus précisément pour la navigation maritime. Nous présentons ensuite les
difficultés rencontrées par l’utilisation de tels systèmes. Ce chapitre a fait l’objet d’une
communication dans un livre collectif international : Hugues et al. (2011a) ;
Chapitre 4 Ce chapitre présente la méthode pratique que nous avons mise en place afin
d’orienter nos choix de conception d’un outil d’aide à la navigation utilisant les techno-
logies de la réalité augmentée. Après un bref aperçu de la sécurité dans le domaine ma-
ritime, nous présentons une méthodologie pour laquelle nous nous sommes rapprochés
de la Société Nationale de Sauvetage en Mer. Cette méthode utilise la modélisation des
activités des individus dans le but d’extraire des caractéristiques pertinentes pour la

26
Chapitre 1. Introduction Générale

conception du système d’information géographique. Ce chapitre a partiellement fait


l’objet d’une communication courte lors d’une conférence internationnale : Hugues
et al. (2010c) ;
Chapitre 5 Ce chapitre présente notre outil d’aide à la navigation basé sur un système
d’information géographique maritime. Nous présentons l’architecture matérielle et lo-
gicielle. Les différents composants fonctionnels seront présentés ainsi que les interfaces
graphiques proposées à l’utilisateur. Ce chapitre a fait l’objet de deux communica-
tions dans des conférences internationales : Hugues et al. (2010a,b) et une conférence
nationale Hugues et al. (2009) ;
Chapitre 6 Ce chapitre présente la conclusion générale de ce mémoire. Après une analyse
des les résultats obtenus, nous proposons les perspectives, les travaux et collaborations
à venir.

Lecture du mémoire
Afin de faciliter la lecture du mémoire, des symboles seront utilisées dont voici la légende.

Ce symbole sera présente lors de réflexions ou discussions.

Vous trouverez ce symbole lorsqu’il sera conseillé au lecteur


d’appronfondir le sujet par une lecture bibliographique.

Vous trouverez ce symbole lorsqu’il sera conseillé au lecteur de


retenir une information.

Vous trouverez ce symbole lors de la présence de définitions.

Le code couleur suivant est utilisé :


1. Les liens internes seront de cette couleur ;
2. Les références seront de cette couleur ;
3. Les liens externes seront de cette couleur.

27
Chapitre 2

Fondements de la Réalité
Augmentée

Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2 Définition de la réalité augmentée . . . . . . . . . . . . . . . . . . 31

3 Classification globale . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4 La boucle “perception, cognition, action” . . . . . . . . . . . . . . 57

5 Modèle 3i2RA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

Résumé

Nous présentons dans ce chapitre les fondements de la réalité augmentée. Après une brève
introduction sur le caractère inéluctable de l’avènement de la réalité augmentée, nous pré-
sentons ses origines, sa finalité ainsi qu’une définition technique. Par une approche centrée
utilisateur, nous proposons ensuite de souligner les implications de la réalité augmentée sur
ce dernier en tant qu’environnement perçu à la fois directement via ses sens et via des in-
terfaces comportementales. En nous appuyant sur la littérature, nous proposons un espace
de caractéristiques composé de quatre dimensions orthogonales que nous avons appliqué à
de nombreux systèmes connus. Nous proposons ensuite, basé sur nos définitions et sur les
travaux en réalité virtuelle, notre modèle d’interaction et d’immersion en réalité augmentée
nommé 3i2RA.
Introduction Chapitre 2. Fondements de la Réalité Augmentée

1 Introduction
Il est naturel pour l’homme de vouloir améliorer son existence pour différentes raisons
(survie, confort, recherche du bonheur, etc.). L’homme s’est cependant rapidement trouvé
limité par ses propres capacités eu égard à ses attentes et à donc mis à profit son intelligence
pour atteindre ces objectifs. L’évolution des techniques aidant, l’homme a pu satisfaire ce
besoin grâce à la maîtrise des éléments et à la transformation de la matière pour mettre
en œuvre des concepts et techniques toujours plus complexes. Sa motivation vise à voir
l’invisible, sentir l’inodore et plus généralement percevoir l’imperceptible et mettre en acte
l’inaccessible, repoussant ainsi toujours plus loin les barrières qui lui sont posées par la
nature elle-même. Si la réalité virtuelle offre une nouvelle place à l’homme à la différence
des autres représentations principalement visuelles ou sonores, mais figées du monde qu’il
a inventé jusqu’alors (peinture, sculpture, film, etc.)Fuchs et Moreau (2006, p. 1), la réalité
augmentée lui offre quant à elle la possibilité d’outrepasser ses propres limitations dans
son environnement naturel.
Même si les premières apparitions d’un tel concept surgissent il y a près de 50 ans chez Su-
therland (1965, 1968), la réalité augmentée ne peut être envisagée que depuis peu, grâce à
la miniaturisation des composants électroniques, à l’augmentation de la puissance de calcul
et à l’autonomie des ordinateurs. C’est une discipline hautement dépendante des évolutions
techniques et technologiques et c’est en partie dûe à cette dépendance que cette discipline
est encore en pleine évolution.
La réalité augmentée est par essence transdisciplinaire. Dans le domaine des sciences et des
techniques, la réalité augmentée appartient principalement au domaine des STIC (Sciences
et techniques de l’Information et de la Communication). Cependant, elle n’est pas entière-
ment incluse dans ce cadre. De nombreuses disciplines rentrent donc en jeu dans les avancées
du domaine :

– l’informatique propose de nouveaux algorithmes et architectures logicielles pour les accès


aux données, la fusion multicapteurs et l’interactivité ;
– l’électronique s’évertue à concevoir et produire des capteurs toujours plus performants,
efficaces et efficients pour une utilisation en situation de mobilité par exemple ;

Dans le domaine des sciences humaines et sociales et des sciences du vivant, l’utilisateur
est placé au centre de la démarche de développement de cette technologie.

– l’ergonomie vise à proposer des interfaces simplifiant l’action de l’utilisateur dans ce


nouvel environnement ou des méthodes d’évaluation de ces applications ;
– la psychologie expérimentale a pour objet d’étude des comportements directement obser-
vables lors de l’utilisation de système de réalité augmentée ;
– la psychologie cognitive étudie la nature des processus cognitifs du sujet expérimentant
un système de réalité augmentée.

Tous ces domaines ne seront pas abordés dans cette thèse, mais nous rappellerons lorsque
cela sera nécessaire au cours de ce mémoire la pertinence des approches de chacun. En
guise de première conclusion, nous pouvons dire que ces conditions d’évolution (verrous
informatiques et électroniques, approche ergonomique et psychologique) sont extrêmement
proches de celles de la réalité virtuelle comme l’introduction de Fuchs et Moreau (2006) le
décrit.

30
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée

2 Définition de la réalité augmentée


2.1 Origine et terminologie
L’expression “réalité augmentée” existe depuis les années 1990. Elle dérive de la traduction
anglaise de “augmented reality”, proposée par Caudell et Mizell (1992) lorsqu’ils qualifient
une application permettant d’aider des techniciens pour certaines opérations de mainte-
nance dans le domaine aéronautique. En français, le terme est un non-sens puisque, à
strictement parlé, cela paraît délicat d’augmenter la réalité ! Le grand public s’étant main-
tenant approprié cette appellation, il est vain de vouloir la changer. Cependant, il n’est
pas inutile de proposer un nom qui pourait mieux représenter ce système. En effet, si la
réalité est, par définition, tout ce qui existe, alors, à strictement parler, la réalité ne peut
pas être augmentée puisqu’elle est déjà tout. Alors qu’est-ce qui est augmenté ? En première
analyse, la réponse paraît évidente : ce n’est pas la réalité, mais la perception de la réalité
qui est augmentée. Le problème se situe donc au niveau de la perception, c’est-à-dire du
phénomène – la réalité telle qu’elle est perçue, pas du noumène – la réalité telle qu’elle
est en soi selon Kant (1787). Cependant, la réalité augmentée ne met pas en œuvre une
modification quantitative de la perception, mais c’est bien qualitativement qu’elle est mo-
difiée : elle lui donne un autre sens. Donc, si le terme de “perception augmentée” semblait
être un bon candidat, nous lui préférons le terme de “signification rectifiée”. En effet, la
réalité n’est pas augmentée par l’interface, mais certaines des significations non perçues (à
cause des limites inhérentes à nos sens et à nos capacités cognitives) sont “révélées” grâce
à ce dispositif. Malgré cette proposition et pour ne pas troubler le lecteur, nous utiliserons
quand même le terme réalité augmentée dans la suite de ce mémoire.
Comme nous l’avons écrit précédemment, le caractère transdisciplinaire de la réalité aug-
mentée ainsi que sa diffusion, surtout auprès du grand public, nécessite une définition suf-
fisamment générique pour rendre compte de toutes ses particularités dans le but de limiter
les idées reçues. Pour ce faire, il faut d’abord la situer conceptuellement.

2.2 La réalité augmentée : un concept ou une technologie ?


Il a été nécessaire d’attendre trente ans après Sutherland (1965) pour qu’une première dis-
cussion sur la définition de la réalité augmentée soit proposée par Milgram et al. (1994).
Il qualifie la réalité augmentée comme étant capable “d’augmenter la rétroaction naturelle
de l’opérateur avec des indices virtuels” ou encore comme “une forme de réalité virtuelle
où l’afficheur tête-porté du participant est transparent”. Cette approche “technocentrique”
est confirmée par Azuma (1997) qui décrit la réalité augmentée comme “permettant à l’uti-
lisateur de voir le monde réel avec une superposition, composée ou par-dessus, d’objets
virtuels”. C’est une définition qu’il affinera quatre ans plus tard en découpant la réalité
augmentée selon trois acceptions 1 .
Nous conseillons au lecteur souhaitant obtenir un complément d’information
de parcourir la thèse de Bottecchia (2010) ou de Didier (2005) pour connaître
les différentes discussions autour de cette définition.

À la seule lecture des auteurs que nous venons de présenter, la réalité augmentée semble être
une technologie. Pourtant, en observant la réalité augmentée selon l’axe fonctionnel, Mackay
(1993, 1998) précise qu’il est possible de la considérer comme une interface entre l’homme
et la machine. En ce sens, comme il est très courant de le faire pour les interfaces homme-
machine, un tel procédé ne peut exclure une prise en compte sérieuse des paramètres liés à
1. 1 : “Combiner le réel et le virtuel”, 2 : “interactivité en temps réel”, 3 : “recalage en trois dimensions”.

31
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée

l’utilisateur et de ceux liés à son environnement comme le précise Calvary et al. (2003). C’est
en effet ce que confirme (Auvray et Fuchs, 2007) lorsqu’il s’agit, pour un individu, d’uti-
liser un dispositif technique, “l’utilisation d’un nouveau dispositif technique modifie notre
couplage sensorimoteur avec l’environnement ; et par là même il modifie notre perception”.
Cependant, chez Milgram et Kishino (1994) ou Dubois et al. (2000), la réalité augmentée
est inscrite dans la réalité mixte. Les systèmes de réalité mixtes ou SIM 2 ont “la spécificité
d’inscrire dans l’environnement physique les interfaces entre monde physique et monde
numérique” selon Coutrix (2009). La réalité mixte intègre les termes suivants :
1. La Réalité Augmentée dont nous allons parler dans les sections suivantes ;
2. La Virtualité Augmentée dont la particularité est d’apporter des informations issues
de l’environnement naturel dans un environnement virtuel ;
3. La Réalité Mixte (ou environnement de réalité mixte) qui est un terme général pour
regrouper les deux classes précédentes ;
4. Les Interfaces tangibles décrivent les objets de l’environnement physique qui incarnent
de l’information numérique ou qui permettent de la contrôler.
La réalité augmentée et la virtualité augmentée sont considérées comme des systèmes de
réalité mixte ou par abus de langage, des systèmes mixtes, pour lesquels le concept principal
est la présence d’entités réelles dans un monde numérique et inversement. Pourtant, la réalité
augmentée semble plus proche du concept étant donné la diversité des applications qui en
découle. La confusion provient certainement du fait que le terme réalité augmentée est
utilisé indifférement qu’il s’agisse du concept ou de la technologie employée pour le mettre
en œuvre.
En outre, la lecture de la littérature nous apporte au moins une certitude : la définition de la
réalité augmentée dépend de la communauté à laquelle appartient celui qui l’énonce. D’une
part, la réalité augmentée est vue comme ayant une approche non immersive par Well-
ner (1991) ou Dubois (2001), puisqu’au lieu de proposer un environnement complètement
modélisé, elle propose d’utiliser l’outil informatique pour modifier le monde perçu par l’in-
dividu. D’autre part, la réalité augmentée n’est pas vue comme une opposition à la réalité
virtuelle mais comme une extension pour laquelle il s’agit de mixer des informations réelles
et virtuelles dans une même scène comme Azuma (1997) le décrit.

Il est incontestable que la réalité augmentée est le produit d’un ensemble


d’innovations technologiques. Cependant, réduire la réalité augmentée à
l’ensemble des caractéristiques techniques de l’interfaçage comportemental
(casque, dispositif mobile, etc.) ne conduit-il pas à sous-estimer sa richesse
en regard de ses fonctionnalités ?

2.3 Les classifications impliquant la réalité augmentée


Les tentatives de classification des environnements de réalité mixte sont nombreuses et les
approches variées. Qu’elles soient techniques, fonctionnelles ou conceptuelles, Beaudouin-
Lafon (2000) souligne que les taxonomies ont des objectifs descriptif, comparatif et génératif.
C’est avec ces classifications qu’il est possible de décrire et de comparer les entités entre elles.
Nous présentons donc dans les sections suivantes un rapide tour d’horizon des taxonomies
présentes dans la littérature concernant ces systèmes. Nous proposons ensuite une discussion
autour de la taxonomie énoncée par Milgram et Kishino (1994).

2. Systèmes Interactifs Mixtes

32
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée

2.3.1 Taxonomies conceptuelles

Jacob et al. (2008) ont proposé un cadre d’analyse avec lequel ils explorent les différents en-
vironnements mixtes afin de dégager une utilisation commune des capacités humaines liées
avec le monde physique, le corps et l’environnement social. Cependant, l’intérêt des envi-
ronnements mixtes étant leur capacité à ne pas reproduire fidèlement la réalité comme le
souligne Dourish (2001), les auteurs ont proposé six facteurs comme le pouvoir d’expression,
l’efficacité, l’ergonomie ou l’accessibilité permettant de pondérer l’exploitation du monde
physique. Cette classification permet de souligner le grand nombre de possibilités d’inter-
action engendrées par les systèmes mixtes. Mackay (1993) propose une classification des
environnements de réalité mixte dont le dénominateur commun est la cible des augmenta-
tions. Les différentes cibles sont les utilisateurs, les objets d’interaction et l’environnement,
découpage repris ensuite par Calvary et al. (2003) pour spécifier une classification de diffé-
rentes interfaces. Dubois et al. (1999) étend cette classification en introduisant une notation
de conception nommée ASUR, élargie ensuite (Dubois et al. (2003)) dont la classification
comprend l’utilisateur, l’adapteur 3 , le système et les entités réelles. Plus tard, Renevier
(2004) définit les modes d’interaction comme étant soit passif (déterminé par le système)
soit actif (déterminé par l’utilisateur). La création, l’accès, la modification et la destruction
des liens sont dépendants du mode d’interaction.

2.3.2 Taxonomies technologiques

Benford et al. (2005) ont choisi d’analyser les mouvements de l’utilisateur afin d’en extraire
un cadre basé sur les mouvements attendus, les mouvements capturés et les mouvements
souhaités. En s’appuyant sur la théorie de l’action de Norman (1986), les auteurs proposent
de dissocier les systèmes qui augmentent l’exécution et les systèmes qui augmentent l’éva-
luation. Plus tard, Milgram et Kishino (1994) proposent une classification technologique
maintenant bien connue sous le nom de « continuum de réalité-virtualité ». Ils s’attachent à
discrétiser et classifier l’environnement selon quatre catégories. Ce continuum suppose qu’il
existe un passage progressif de la réalité à la réalité virtuelle et inversement (Figure 2.1).
Cette approche n’est pas reniée par Dubois et al. (2000) lorsqu’ils proposent de définir
deux continua appliqués à l’interaction et que les auteurs nomment le continuum de réa-
lité augmentée et le continuum de virtualité augmentée. La différence réside dans le fait
que l’objectif n’est pas de classifier les dispositifs d’affichage comme c’est le cas pour Mil-
gram mais les interactions selon six groupes possibles (clavier, interface graphique, gesture,
tangible, incarné) proposés par Fishkin et al. (1998).

Nous retenons que de nombreuses taxonomies ont été proposées concernant


les systèmes mixtes mais que très peu sont spécifiques à la réalité augmentée.
Dans la mesure où les applications de réalité mixte sont nouvelles, nous
cherchons à mieux les cerner et les développer.

Qu’elle soit pour les dispositifs d’affichage ou pour les interactions, l’utilisation d’un conti-
nuum implique plusieurs postulats. Ces postulats, qui seront discutés, sont les suivants :

3. Les adapteurs transfèrent les données d’un monde à l’autre et peuvent être en entrée ou en sortie du
système.

33
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée

– Le passage de la réalité à la réalité virtuelle est continu (continuité versus


discontinuité) ;
– La réalité existe objectivement alors que les autres types existent seulement
par les effets qu’ils produisent sur l’utilisateur (postulat ontologique) ;
– La réalité est perçue directement par les sens alors que dans les autres cas la
perception est médiée par des interfaces (médiation versus non-médiation).

Réalité Mixte (RM)

Environnement Réalité Aug- Virtualité Aug- Environnement


Réel (ER) mentée (RA) mentée (VA) Virtuel (EV)

Figure 2.1: Le continuum de Milgram et Kishino (1994).

Continuité versus discontinuité L’idée de continuité entre la réalité et la réalité vir-


tuelle ne va pas de soi. Milon (2005) relève que la notion de virtualité repose sur trois idées
reçues. Premièrement, la virtualité s’opposerait à la réalité. Deuxièmement, la virtualité
libèrerait l’homme de son existence corporelle. Troisièmement, la virtualité nous libèrerait
des lois physiques de la réalité. Ces préjugés soulignent qu‘il est possible de formuler trois
types de jugement à l’égard des rapports entre la virtualité et la réalité. Comme le sou-
lignent Doel et Clarke (1999) et Proulx et Latzko-Toth (2000), la première attitude, consiste
à considérer la virtualité comme une copie dégradée de la réalité. La deuxième attitude voit
dans la virtualité l’opportunité non seulement de comprendre la réalité mais également de
l’étendre. Une troisième voie, explorée par Nannipieri et Fuchs (2009) considère, que le réel
et le virtuel appartiennent à un monde hybride où l’un et l’autre, s’entre-produisant, créent
de nouvelles réalités. D’un point de vue strictement logique, on constate donc qu’il existe
trois façons d’envisager le lien entre la réalité et la virtualité : par inclusion, exclusion ou
compossibilité 4 . On peut considérer qu’il y a inclusion de la virtualité dans la réalité en
se fondant sur la distinction entre le naturel et l’artificiel, lesquels, ensemble, constituent
La Réalité (Figure 2.2). La nature est définie comme l’ensemble de ce qui n’a pas été vo-
lontairement créé par l’homme alors que les artefacts sont des productions humaines. À la
différence de ce qui est naturel, un objet technique est un produit humain et pas seulement
un simple effet d’après Séris (1994).

4. Terme générique qui désigne, dans notre contexte, un environnement dont l’existence est possible en
même temps qu’un autre environnement.

34
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée

La Réalité

Nature Artefacts
(la terre, les (Les voitures, la
animaux...) réalité augmentée...)

Figure 2.2: Inclusion de la virtualité et de la réalité.

Une autre approche consiste à considérer que la réalité et la virtualité s’opposent en consti-
tuant deux mondes séparés : il y a alors exclusion (Figure 2.3). D’un côté, il y aurait le
monde réel, de l’autre côté, le monde des simulacres de Baudrillard (1995) ou de Lebrun
(1996). Ces deux mondes sont incompatibles car le monde des simulacres tend à remplacer
la réalité : “L’image ne peut plus imaginer le réel, puisqu’elle l’est” (Baudrillard (1981)).

Nature Artefacts
(la terre, les (Les voitures, la
animaux...) réalité augmentée...)

Figure 2.3: Exclusion de la virtualité dans la réalité.

La troisième approche considère que la réalité et la virtualité coexistent : il y a alors compos-


sibilité (Figure 2.4). Sont compossibles deux possibles, en l’occurrence les caractéristiques
du réel et les caractéristiques de la virtualité, si et seulement s’ils sont possibles ensemble.
Or, c’est bien ce qui se produit : par exemple, si le temps réel est irréversible, il existe un
temps virtuel qui peut ne pas l’être. Ces deux temps, s’ils semblent s’exclure l’un l’autre
sont, pourtant, compossibles : ils s’actualisent, c’est-à-dire existent, l’un “réellement”, l’autre
“virtuellement”, dans le même monde. Ils cœxistent sans contradiction logique puisque nous
pouvons expérimenter autant la réalité que la réalité virtuelle par exemple. Dans le cas d’une
relation de compossibilité, la virtualité n’est donc pas incluse dans la réalité et elles ne s’op-
posent pas l’une à l’autre. On retrouve dans cette approche la continuité décrite dans le
continuum de Milgram et Kishino (1994).

35
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée

Réalité Virtualité
Figure 2.4: Compossibilité entre réalité et virtualité.

Nous pensons que le lien de compossibilité est le plus apte à traduire la


coexistence entre réalité et virtualité.

Le postulat ontologique Le continuum de Milgram et Kishino (1994) décrit une ligne


qui va de la réalité à la réalité virtuelle en passant par la réalité mixte. Il présuppose qu’il
existe, à une extrémité, une réalité pure et, à l’autre extrémité, une virtualité pure. Les
auteurs proposent une distinction entre la réalité et la réalité virtuelle fondée sur la défini-
tion suivante : « Real objects are any objects that have an actual objective existence » and
« Virtual objects are objects that exist in essence or effects, but not formally or actually ».
La première définition s’appuie sur le postulat ontologique de l’existence d’une réalité ob-
jective. Cette « hypothèse ontologique » est si naturelle écrit Le Moigne (2001), qu’elle
n’est généralement pas considérée comme une hypothèse. On pense spontanément, en effet,
qu’il existe une réalité indépendante des observateurs : La Réalité. Ce postulat exprime
l’idée qu’il existe une réalité pure qui existe même si elle n’est pas perçue. Or, on sait, de-
puis Kant (1787) que la réalité en soi – le noumène – n’est pas perçue telle qu’elle est. Nous
n’avons accès qu’à la réalité telle qu’elle nous apparaît via nos sens – le phénomène. En
clair, l’existence d’une réalité ayant une “actual objective existence” ne peut être prouvée
puisque tout ce que nous percevons est perçu par nos sens. En somme, ce continuum pose
l’existence d’une réalité objective qu’il est impossible de percevoir. En ce sens, il ne s’agit
pas d’une réalité objective (noumène), mais d’une réalité perçue (phénomène).

Médiation versus non-médiation Afin de définir et de distinguer la réalité de la vir-


tualité, Milgram et Kishino (1994) affirment que la réalité est perçue directement par les
sens alors que, dans le cas de la virtualité, la perception est médiée. D’un point de vue
technique, la distinction ne semble pas être suffisante. En effet, la réalité, en tant que ce
qui est quotidiennement perçu, n’est pas le produit de l’interaction entre un homme et une
machine : elle est perçue directement par les sens. Au contraire, une des caractéristiques de
la réalité augmentée ou de la virtualité augmentée par exemple, c’est qu’elle est produite
par l’interaction d’un homme et d’une machine. Or, cette condition est nécessaire mais pas
suffisante. En effet, la réalité augmentée ne peut pas être réduite à la seule condition qu’il y
ait une interaction entre un homme et une machine car toutes les situations d’interactions
homme-machine ne produisent pas nécessairement une réalité augmentée (par exemple le
port de lunettes, l’utilisation de jumelles, etc.). La réalité augmentée produit une représen-
tation : une perception différente ou augmentée de la réalité quotidienne. La médiation ne
provoque pas seulement une interaction, qui est un effet observable de l’immersion dans un
environnement virtuel ou mixte (c’est-à-dire que l’utilisateur réagit à des stimuli produits
par une machine). Elle provoque également une représentation mentale constituée de l’en-
semble des objets perçus appartenant à un monde qui existe seulement pour l’utilisateur
ou les utilisateurs.
Nous retenons que l’utilisateur ne réagit pas directement aux stimuli produits
par la machine, mais réagit à la représentation mentale du monde qu’il crée
lui-même.

36
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée

2.3.3 Prise de recul

Pour le sujet qui utilise une interface produisant un environnement augmenté, la distinction
entre réalité et virtualité ne tient pas car la signification qu’il confère à son environnement
est globale : l’information virtuelle ne vient pas s’ajouter à l’information réelle, elle en mo-
difie sa structure générale. Puisque tous les éléments perçus sont liés les uns aux autres
de manière essentielle comme le souligne Köhler (1929), l’utilisateur d’une interface de réa-
lité augmentée fait face à une réalité hybride, mixte et non à deux environnements qui se
superposeraient par un effet de surimpression l’un sur l’autre, le premier étant augmenté
quantitativement par le second. Kant (1787) note que notre faculté de percevoir par les sens
et notre jugement à propos du réel ne nous livrent pas la réalité en soi. Le noumène, c’est-
à-dire la réalité telle qu’elle est indépendamment du sujet qui la perçoit et qui la pense, est
inaccessible : non seulement nos sens ne nous permettent pas d’accéder à la réalité en soi (e.g.
les couleurs n’existent peut-être pas en soi, mais pour nous), mais notre faculté de connaître
procède en appliquant des catégories (e.g. la causalité) qui ne sont pas des propriétés du
réel mais de notre manière de connaître le réel. Ainsi, nous n’avons pas accès à une réalité
absolue, mais à la réalité telle qu’elle nous apparaît : le phénomène. Le pas était décisif
mais insuffisant : puisque le réel est inconnaissable, comment pourrions-nous raisonnable-
ment encore nous y intéresser ? L’important serait donc moins d’appréhender une réalité
absolue que l’expérience subjective que nous présente un phénomène. Centrée sur le phé-
nomène, la phénoménologie, initiée par Husserl (1992), trouve un écho chez Merleau-Ponty
(1945) susceptible d’éclairer la compréhension de la réalité augmentée. Pour l’exprimer sim-
plement, le sens de ce que nous percevons (la réalité ou la réalité augmentée) n’est pas une
propriété de ce que nous percevons : le réel ne nous informe pas, c’est le sujet qui l’informe,
c’est-à-dire qui lui donne une forme, un sens. Comme c’est le sujet, “en surgissant, qui fait
paraître sens et valeur dans les choses, et comme aucune chose ne peut l’atteindre qu’en se
faisant par lui sens et valeur, il n’y a pas d’action des choses sur le sujet, il n’y a qu’une
signification” écrit Merleau-Ponty (1945). En effet, le réel n’est pas constitué d’une somme
d’informations que nous pourrions augmenter, mais d’une configuration signifiante pour un
sujet. L’information est une abstraction et n’est jamais perçue dans son hypothétique va-
leur objective et quantifiable par le sujet : “Je ne perçois pas seulement des choses [...]. Ce
ne sont pas seulement des valeurs spatiales et chromatiques que le fonctionnement nerveux
distribue, mais encore des valeurs symboliques” écrit encore Merleau-Ponty (1945). En ce
sens, affirmer que la réalité est augmentée n’a pas de sens pour l’expérience subjective. Il
serait plus pertinent d’affirmer que le dispositif technique de réalité augmentée offre au sujet
de nouvelles significations en modifiant la structure signifiante des éléments qu’il perçoit.
Cette perception mène justement à la création d’une représentation mentale. En somme,
fondamentalement, ce qui est médiatisé dans la réalité augmentée, c’est la représentation
mentale que l’utilisateur crée à partir des stimuli produits par la machine. La réalité aug-
mentée n’est pas seulement, comme l’affirment Milgram et Kishino (1994), a « non-direct
viewing of a real object » car les processus perceptifs produisent des processus cognitifs
qui produisent chez l’utilisateur une représentation mentale qui ne peut pas être réduite
à une perception passive de stimuli, mais qui est une construction active de la part de
l’utilisateur comme le souligne le modèle proposé par Fuchs et al. (2001) ou différemment
par Thouvenin (2009). En clair, le continuum de Milgram et Kishino (1994) adopte une
approche technocentrée qui semble négliger le rôle de l’utilisateur dans la construction de
l’environnement augmenté. C’est pour cela que nous avons décidé de définir principalement
la réalité augmentée par sa finalité.

37
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée

2.4 Finalité de la réalité augmentée


Loin de vouloir éloigner la réalité augmentée de sa dépendance technologique, eu égard à
ce que nous venons d’énoncer, il est intéressant tout d’abord de déterminer la finalité de la
réalité augmentée. D’une manière très proche de la finalité de la réalité virtuelle (Fuchs et
Moreau, 2006, p. 5-6), nous pouvons affirmer, comme nous l’avons écrit dans Fuchs et al.
(2010); Hugues et al. (2011b) que :

La finalité de la réalité augmentée est de permettre à une personne de réaliser


des activités sensorimotrices et cognitives dans un espace mixte asso-
ciant l’environnement réel et un environnement artificiel. La réalité augmen-
tée peut proposer soit une modélisation du monde réel sur la base d’un monde
qui imite ou symbolise certains aspects du monde réel, soit la création d’un
monde imaginaire ne correspondant à rien d’actuel.

L’énoncé de cette finalité se décompose en deux catégories. La première se rapporte au type


d’interaction que l’utilisateur entretien avec l’environnement mixte. Les termes “activité
sensorimotrice” sont employés pour signifier l’idée que la personne perçoit et agit physi-
quement avec les entités et éléments du monde mixte, qu’ils soient artificiels ou naturels.
La seconde catégorie concerne la diversité des environnements représentés dans ce monde
mixte. L’environnement mixte appartenant aux deux premiers cas, imitant ou symbolisant
le monde réel, est considéré comme un environnement pseudonaturel, à la différence du se-
cond cas, considéré comme un environnement imaginaire. Voici le détail des termes présents
dans la finalité de la réalité augmentée.
Imitation de certains aspects du monde réel : pour améliorer la cohérence globale
de la scène mixte, certains aspects de notre environnement réel sont modélisés afin
que les entités virtuelles soient mieux intégrées. On peut notamment mentionner les
aspects optiques (reflets, textures, etc.) ou les aspects physiques (gravité, inertie, etc.) ;
Symbolisation du monde réel : il est possible d’utiliser des représentations symbo-
liques pour améliorer la compréhension de notre environnement. La représentation
des phénomènes physiques par exemple (gravité, écoulement de fluide, etc.) est réali-
sée par des symboles permettant à l’utilisateur de se faire une meilleure représentation
mentale de certains phénomènes. Des symboles peuvent aussi être utilisés pour ajou-
ter des concepts symboliques comme des schémas ou tout simplement pour indiquer
une direction ;
Un monde imaginaire : dans ce cas, certaines (ou toutes) lois du monde réel ne sont pas
forcément simulées ou le sont différemment. Cela peut être le cas pour simplifier la
modélisation de l’environnement si certaines considérations ont été jugées inutiles, ou
encore lors d’environnement artistiques ou dédiés au divertissement par exemple.

2.5 Définition fonctionnelle


Même si toute augmentation de la quantité d’informations permise par la réalité augmentée
a pour objectif final une plus grande maîtrise du réel, il est clair que, d’un point de vue
technologique, la réalité augmentée peut offrir des interfaces qui proposent soit, plus explici-
tement, les informations, soit, plus explicitement, une meilleure maîtrise de notre action sur
le réel. Mais alors comment les dispositifs techniques modifient-ils notre perception ? D’après
Auvray et Fuchs (2007), « l’utilisation d’un nouveau dispositif technique modifie notre cou-
plage sensorimoteur avec l’environnement ; et par là même il modifie notre perception ».
Les outils techniques modifient notre « espace perceptif ». Le pas est décisif. Cependant,

38
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée

on ne peut pas « seulement » s’employer à mieux percevoir puisque la perception n’est pas
une finalité en soit, mais un moyen d’atteindre un objectif d’action d’après Bergson (1939).
En effet, à l’instar de la réalité virtuelle, l’augmentation de la réalité peut répondre à deux
objectifs pour l’utilisateur : favoriser la compréhension et la maîtrise du réel et donc, une
perception ou action augmentée de la réalité d’une part et, d’autre part, proposer un en-
vironnement nouveau, ou imaginaire, dont la finalité ne semble obéir ni à une exigence de
l’ordre de la connaissance, ni à une exigence d’ordre pratique mais plutôt de l’ordre de
l’imaginaire, du créatif ou de l’artistique. La finalité de la réalité augmentée que nous avons
présentée plus haut permet donc de distinguer deux cas.
Nous retenons que le premier cas est caractérisé par une imitation ou une
symbolisation de certains aspects du monde réel, alors que le deuxième cas
est caractérisé par la création d’un environnement imaginaire.
C’est sur la base de cette distinction qu’il est possible de proposer une taxonomie fonction-
nelle de la réalité augmentée. Nous proposons donc de décomposer la réalité augmentée en
deux fonctionnalités distinctes (Figure 39).

Réalité Augmentée

Environnements Perception/Action
Imaginaires Augmentée de la Réalité

Figure 2.5: Les deux fonctionnalités de base de la réalité augmentée.

2.5.1 Perception ou action augmentée


Les différentes sous-fonctionnalités qui découlent de cette catégorie sont les suivantes,
chaque fonctionnalité est illustrée par un exemple d’application lorsqu’il existe. Pour ne
pas nuire à la lecture, nous proposons les illustrations en Page 44-47.

Réalité documentée : c’est la fonctionnalité minimum de la réalité augmentée : les enti-


tés réelles et les entités virtuelles sont dans deux cannaux différents, mais entretiennent
entre eux un rapport d’information. L’augmentation consiste alors à informer l’utili-
sateur comme le ferait, par exemple, sans la médiation d’un dispositif technique, le
manuel de montage d’un meuble livré en kit. Le second cadre d’affichage (constitué de
texte principalement) a pour fonction d’aider la compréhension et de guider l’action
de l’utilisateur (Figure 2.10c) ;
Virtualité documentée : il s’agit, par exemple, de proposer le synoptique d’un proces-
sus industriel ou la représentation 3D d’un procédé industriel avec des photos de
réalisations industrielles, le « document » n’est plus constitué uniquement d’un envi-
ronnement synthétique, mais d’images de l’objet réel ;
Compréhension augmentée : il s’agit, dans ce cas, de l’augmentation de la compréhen-
sion des images de la scène réelle par incrustation d’informations sémantiques passives.
Les entités virtuelles (titres, légendes, symboles, etc.), plus ou moins proches visuel-
lement des objets réels, donnent des informations complémentaires sur ces derniers
(e.g. fonctions, références) (Figure 2.8a ou 2.10a) ;

39
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée

Visibilité augmentée : il s’agit, dans ce cas, de l’augmentation de la visibilité des images


de la scène réelle (si l’on s’en tient à la seule perception visuelle). Les entités virtuelles
(par exemple les modèles "fil de fer" d’objets réels) sont en correspondance géomé-
trique précise avec les contours des objets réels. Ils permettent de surligner les objets
pour mieux les voir. Il est alors possible soit d’améliorer la netteté des images en sur-
lignant les contours apparents des objets pour mieux les percevoir, soit, d’améliorer la
visibilité des objets en représentant virtuellement les contours visibles et les contours
invisibles de ces derniers (Figure 2.9b ou 2.10b ou 2.9a) ;
Moins présentes dans la littérature que les quatre fonctionnalités précédemment présentées,
on trouve des sous-fonctionnalités dites d’associations comportementales afin d’amé-
liorer les interactions entre les entités numériques et les entités physiques (Figure 2.10f).
La dernière sous-fonctionnalité que nous présentons permet d’opérer une substitution du
réel par le virtuel. Cette substitution peut être réalisée sous forme globale ou locale.
La connaissance de la modélisation géométrique de la scène réelle observée par l’utilisateur
permet de remplacer entièrement l’affichage d’une vidéo de la scène réelle par l’image de
synthèse du modèle déterminée à partir du même point de vue (Figue 2.10d). Enfin, d’une
manière plus localisée, certains objets de la scène réelles peuvent être “remplacés” par des
entités numériques (Figure 2.5.2).

2.5.2 Réalité Diminuée


C’est dans l’article de Zokai et al. (2003) qu’a été utilisé la première fois le terme anglais
“diminished reality”. Pour l’exemple, on trouve dans cet article la “suppression” d’un stylo
qui gêne la vision d’une carte qui est disposée derrière ce dernier. Grace à deux points
de vue différents, les auteurs sont ainsi capables de reconstruire l’image derrière le stylo
(Figure 2.6). Mais alors, doit-on s’attarder à dire que c’est le stylo qui est supprimé, ou
bien la carte qui est révélée ? Quelle est l’information importante pour l’utilisateur ? Que le
stylo n’y soit plus, ou qu’il soit capable de voir convenablement la carte ?

(a) La scène de référence avec le stylo cachant la (b) La scène après traitement avec le stylo ne ca-
carte. chant plus la carte.

Figure 2.6: Illustration de la réalité diminuée extraite de Zokai et al. (2003).

D’un point de vue technique, il est possible de différencier la réalité augmentée de la réalité
diminuée (on efface le stylo ou on reconstruit la carte ?). La réalité diminuée utilise un

40
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée

principe maintenant bien connu de retouche d’image dont la particularité ici est d’être
exécuté en temps réel. D’un point de vue fonctionnel, l’objectif de la réalité diminuée est
identique à celui de la réalité augmentée qui est d’offrir à l’utilisateur un environnement que
ses propres sens ne lui permettent pas d’atteindre en rectifiant la signification de ce qu’il
perçoit. De la même manière qu’un ajout d’information permet de mieux percevoir notre
environnement, la suppression d’éléments négligeables, gênants ou superflus a les mêmes
objectifs. En ce sens, la réalité diminuée est une des formes de réalité augmentée. Elle est
plus particulièrement intégrée à la fonctionnalité de “substitution du réel par le virtuel”,
sous forme locale, que nous avons présenté en Section 2.5.

2.5.3 Environnement Imaginaire

Héritée de la conception pragmatique de James (1907), Bergson (1939) insiste sur la nature
même de notre perception et de toute recherche d’informations dans le réel : “la perception
n’est jamais désintéressée, la connaissance n’est jamais qu’un moyen de mieux agir dans
le réel”. L’être humain semble cependant avoir une faculté qui paraît pouvoir échapper
en partie à cette loi : l’imagination. En effet, on peut raisonnablement admettre que la
production d’images mentales ne répond pas à un objectif pratique même si ce que nous
imaginons a des effets volontaires ou non sur notre perception et notre action sur le réel.
Il se trouve, précisément, que la réalité augmentée, comme la réalité virtuelle, sont en
mesure de produire des environnements qui ne sont pas assujettis à une exigence pratique.
Dans de tels cas, la réalité augmentée propose des environnements qui nous présentent
non pas le réel tel qu’il est perçu – en augmentant le nombre d’informations que nous ne
percevons pas mais, qui, pourtant, sont bien présentes dans le réel – mais le réel tel qu’il
pourrait être ou tel qu’il a été, selon la variation des paramètres de temps et d’espace. Dans
ce cas, il est nécessaire d’identifier les environnements sur la base des valeurs possibles
de ces paramètres afin d’en dresser une classification. L’objectif est donc de coupler le
“temps” T et la “modalité” M . Il s’agit donc de lister touts les types d’imagination distincts,
en ayant deux variables : la variable temps et la variable modale. Pour cela, nous nous
appuierons sur la sémantique la plus répandue pour ce type d’analyse qui est la sémantique
“des mondes possibles” développée par Kripke (1959). Nous allons donc appliquer cette
analyse à la réalité augmentée. Nous utiliserons donc la logique modale “contrefactuelle” qui
autorise la variable modale à prendre les valeurs “factuel” et “contrefactuel” (Tableau 2.1).
Une proposition contrefactuelle prend la forme d’une phrase conditionnelle, telle que “si...
alors...”, qui indiquerait ce qui serait vrai si l’antécédent avait eu lieu. Nous la préférons à
la sémantique classique pour laquelle la variable modale peut prendre les valeurs possible,
impossible, contingente ou nécessaire. La variable modale impossible implique que l’être
humain soit capable d’imaginer l’impossible, ce qui est pourtant contradictoire.

Variable temporelle
Variable modale
Passé
Factuel
Présent
Contrefactuel
Futur

Tableau 2.1: Description des valeurs des deux variables temporelle et modale.

41
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée

En effet, certains arrangements ne sont pas possibles car contradictoires. Par


exemple, imaginer l’impossible proprement dit. Il s’agit en fait d’imaginer
un monde dans lequel des contradictions surviennent. Par exemple un monde
dans lequel la constante gravitationnelle est 9,8 et 7,3 en même temps. Le
problème est qu’il est difficile de simuler de telles possibilités pour une raison
très simple.

Imaginer l’impossible proprement dit parait donc être une chose bien plus délicate qu’ima-
giner le contrefactuel, car cela implique que l’on puisse imaginer n’importe quoi, sans limi-
tations. Ne sont donc pas contradictoires les cas suivants, que nous avons sélectionnés pour
notre classification et pour lesquels nous proposons un exemple d’application s’il existe :

Imaginer le contrefactuel passé : dans un espace-temps possible différent du nôtre se-


lon certaines variables (physiques, sociales, etc.), il s’agit d’imaginer ce qui a lieu avant
l’instant présent ;

Imaginer le contrefactuel présent : dans un espace-temps possible différent du nôtre


selon certaines variables (physiques, sociales, etc.), il s’agit d’imaginer ce qui a lieu à
l’instant présent (Figure 2.8c) ;

Imaginer le contrefactuel futur : dans un espace-temps possible différent du nôtre se-


lon certaines variables (physiques, sociales, etc.), il s’agit d’imaginer ce qui a lieu après
l’instant présent ;

Imaginer le factuel passé : dans notre espace-temps, il s’agit d’imaginer ce qui s’est
passé. Peu importe les faits qui eurent lieu, l’imagination vise ici ce qui est possible
qu’il se soit passé dans le passé. Il s’agit ici d’une possibilité épistémique 5 . En vertu de
ce que je sais, il est possible que le passé ce soit déroulé de telle ou telle manière (Fi-
gure 2.8d ou 2.11b) ;

Imaginer le factuel présent : ceci correspond aux situations où l’on imagine ce qu’il se
passe maintenant, dans notre espace-temps, mais à un autre endroit (Figure 2.9d) ;

Imaginer le factuel futur : ceci correspond aux situations où l’on imagine non seule-
ment un futur possible, mais surtout le possible futur qui est notre futur à la manière
d’un scientifique qui fait des prédictions. Le but n’est pas de savoir s’il y a un monde
possible dans lequel va se passer une action, mais de savoir si dans notre monde actuel
réel, l’action va se dérouler (Figure 2.11a ou 2.8b).

Nous proposons donc un résumé de notre classification dans la Figure 2.7.

5. relative à la connaissance

42
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée

Réalité Augmentée

Perception
Environnements
Augmentée
Imaginaires
de la Réalité

Contrefactuel Réalité do-


Passé cumentée

Contrefactuel Virtualité do-


Présent cumentée

Contrefactuel Compréhension
Futur augmentée

Visibilité
Factuel passé
augmentée

Association
Factuel présent
perceptuelle

Substitution du
Factuel futur
réel par le virtuel

Association
comportementale

Figure 2.7: Résumé de la taxonomie fonctionnelle des environnements de réalité augmentée.

43
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée

(a) Projet ARMAR de Henderson et Feiner (2009). (b) Exemple d’environnement par incrustation
Compréhension augmentée. d’éléments virtuels par Meine Wohnung (2010).
Imaginer le factuel futur.

(c) Application commerciale Chocapic par Nestle (2010). Imaginer le contrefactuel présent.

(d) L’Abbaye de Cluny augmentée d’éléments ap- (e) L’Abbaye de Cluny comme elle l’est actuelle-
partenant à son passé par ENSAM - On-Situ ment par ENSAM - On-Situ (2010). Imaginer le
(2010). Imaginer le factuel passé. factuel passé.

Figure 2.8: Exemples fonctionnels d’applications basées vision.

44
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée

(a) Visualisation d’une pièce mécanique en “mode (b) KARMA Feiner et al. (1993). Visibilité aug-
filaire” dans Fuchs et al. (2001). Visibilté augmen- mentée.
tée.

(c) Gauche : incrustation d’image. Droite : intégration d’image. de Gibson et al. (2003).

(d) “Fenêtres virtuelles” (Rationalcraft, 2010). Imaginer le factuel présent.

Figure 2.9: Exemples fonctionnels d’applications basées vision.

45
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée

(a) Réalité à compréhension augmentée. (b) Le système T.A.C de (Bottecchia et al., 2008).
[Link] Research (2010). Visibilité Augmentée.

(c) Fonctionnalité de Réalité documentée. Extrait (d) Substitution du réel par le virtuel (forme glo-
de Didier (2005). Réalité documentée. bale). Extrait de Fuchs et al. (2001).

(e) Projet UnLogo (2010). Un logo apparaissant (f) Physique et réalité augmentée de Total Immer-
dans la vidéo est “caché” par une texture noire. Sub- sion (2008). Association comportementale.
stitution du réel par le virtuel sous forme locale.

Figure 2.10: Exemples fonctionnels d’applications basées vision.

46
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée

(a) Un cartier de Rennes augmenté avant sa re- (b) Philadelphie comme elle était dans le
structuration (Rennes La Courrouze, 2011). Imagi- passé (Philadelphie, 2011). Imaginer le factuel
ner le factuel futur. passé.

(c) “Réalité diminuée” ou substitution du réel par le virtuel (forme locale). Le “virtuel” peut être considéré
comme une texture que l’on vient disposer par dessus l’objet à dissimuler. Les lunettes ne sont plus visibles.
Extrait de Herling et Broll (2010).

Figure 2.11: Exemples fonctionnels d’applications basées vision.

2.6 De la réalité augmentée au monde mixte


Avant de proposer une définition technique, nous souhaitons apporter quelques précisions
concernant le lien entre réalité augmentée et virtualité augmentée. Ces deux approches
peuvent être considérées comme une association ou un “mélange” entre les informations
issues d’un environnement artificiel et les informations issues de l’environnement naturel.
Ce constat à mené Milgram et Kishino (1994) à poposer un terme générique qualifiant ces
deux technologies de “réalité mixte” (“Mixed Reality”). Cependant, en guise de préambule à
ses travaux plus récents, Milgram (2009) précise que la différence entre ces deux approches
technologiques peut être considérée comme une simple différence de point de vue de l’uti-
lisateur sur ce “monde mixte” 6 . Afin de généraliser notre approche, nous proposons donc
d’utiliser le terme de “monde mixte” concernant l’environnement créé par l’utilisation des
technologies de réalité augmentée ou de virtualité augmentée. Nous alertons le lecteur que
nous faisons une différence avec les technologies de la réalité mixte qui, en plus des sys-
tèmes de réalité augmentée et de virtualité augmentée intègrent des systèmes tangibles sur
6. Présentation de Paul Milgram lors de l’animation de l’atelier “Réalité Mixte, Téléopération et Facteurs
Humains” au cours des 5ième journées de l’Association Française de Réalité Virtuelle, Augmentée, Mixte
et d’Interaction 3D (http\penalty\@M://[Link] (2011)) pour l’exposition de ces travaux.

47
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée

lesquels nous ne focaliserons pas dans ce mémoire.

2.7 Définition technique


Du point de vue technique et de manière équivalente à la définition technique de la réalité
virtuelle proposée par Arnaldi et al. (2003), nous définissons la réalité augmentée telle que :

La réalité augmentée est un domaine scientifique et technique exploitant


l’informatique (1) et des interfaces comportementales (2) en vue de
simuler dans un monde mixte (3) le comportement d’éléments artifi-
ciels (4), qui sont en interaction en temps réel (5) entre elles, avec
l’environnement naturel et avec un ou des utilisateurs en immersion na-
turelle ou pseudonaturelle (6) par l’intermédiaire de canaux sensorimo-
teurs.

1. l’exploitation de l’informatique, qu’il s’agît du matériel ou du logiciel est une évi-


dence pour réaliser techniquement un environnement mixte interactif qui puisse être
interfacé avec l’utilisateur. Les simulations sont dynamiques - objets, personnages vir-
tuels, sons, phénomènes, etc. - sont animées en temps réel suivant des lois physiques
(mécaniques, optiques, etc.) et plus rarement comportementales (psychologiques, so-
ciales, affectives, etc.) ;
2. la réalité augmentée exploite des interfaces matérielles que nous appelons, eu égard à
leurs correspondances avec les interfaces de la réalité virtuelle (Fuchs et Moreau, 2006,
Chap. 2, Vol. 2), des “interfaces comportementales”. Elles sont donc aussi compo-
sées “d’interfaces sensorielles”, “d’interfaces motrices” et “d’interfaces sensorimotrices”.
Les interfaces sensorielles informent l’utilisateur par ses sens de l’évolution et de l’état
du monde mixte. Les interfaces motrices permettent au système de connaître les ac-
tions de l’utilisateur sur le monde mixte et les interfaces sensorimotrices informent
dans les deux sens ;
3. la création d’un monde mixte se fait par l’association d’un monde réel avec un monde
virtuel. Les associations entre ces deux mondes peuvent être de plusieurs types. Il est
possible d’associer un monde réel et un monde virtuel spatialement et temporellement.
Bottecchia (2010) précise qu’il est aussi possible d’avoir une association sémantique.
Les difficultés spécifiques à cette association (quel que soit le type) sont la cohérence
(spatiale, temporelle ou sémantique) entre les entités réelles et virtuelles ;
4. nous entendons par éléments artificiels tous types d’entités numériquement créées.
Ces entités peuvent représenter indifféremment un symbole, du texte, une image, un
son, une odeur, une vidéo, un modèle CAO 2D, 3D, etc. ;
5. l’interaction en temps réel est obtenue si l’utilisateur ne perçoit pas de décalage
temporel (latence) entre son action sur l’environnement mixte et la réponse sensorielle
de ce dernier. La difficulté ici est de maintenir la cohérence entre les entités virtuelles
et le monde réel lorsque l’utilisateur agît sur le monde réel. Cette action doit être
gérée par le système pour affecter le monde virtuel en conséquence et inversement si
l’action de l’utilisateur vise les entités virtuelles ;
6. si certains auteurs se sont parfois appuyés sur le caractère non immersif 7 de la réalité
augmentée pour la différencier de la réalité virtuelle, il s’avère pourtant que l’utili-
sateur d’un système de réalité augmentée peut aussi être en situation d’immersion
7. Peut être causé par le nom de certains dispositifs initialement créés pour la réalité augmentée comme
les “non-imersive visual displays” (Milgram et Kishino (1994)).

48
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée

pseudonaturelle, étant donné qu’il doit interagir avec un environnement partiellement


modélisé via des interfaces comportementales pour lesquelles des biais sont créés indé-
pendamment de la volonté des concepteurs. Donc, loin d’une différence de nature mais
plutôt de degré entre l’immersion en réalité virtuelle et l’immersion en réalité aug-
mentée, l’utilisateur doit être en “immersion pseudonaturelle” la plus efficace possible
dans le monde mixte lorsqu’il n’est pas en situation d’immersion naturelle.

2.7.1 Interfaces comportementales


Il est nécessaire d’apporter quelques précisions concernant les interfaces utilisées en réalité
augmentée. Nous souhaitons apporter une subtilité non négligeable correspondant à la na-
ture même des interfaces possibles et pour cela nous proposons d’illustrer nos propos par
deux exemples d’application.
Le premier est présenté par Nestle (2010). Nous avons déjà classé cette application comme
un environnement imaginaire en Section 2.5.3 et proposé une illustration en Figure 2.8c.
Dans cette application, l’utilisateur manipule une boîte de céréales afin de déplacer un per-
sonnage virtuel que l’utilisateur perçoit comme étant positionné à l’intérieur de cette boîte.
Le système doit donc capter les mouvements de la boîte (indirectement, les mouvements
de l’utilisateur). L’utilisateur a l’obligation de bouger la boîte s’il veut jouer. La boîte est
donc est une interface tangible et aussi un élément naturel (la fonctionnalité de contenant
de la boîte étant détournée pour cette application) 8 . En tant qu’élément naturel, la boîte
est perçue par l’utilisateur qui décide des mouvements à lui affecter, puis modifie son orien-
tation et sa position en fonction du retour visuel d’informations qu’il obtient depuis un
écran placé face à lui. En plus d’utiliser le schème du miroir, la boîte devient un outil
qui prolonge le corps de l’utilisateur. Il ne perçoit donc pas la boîte comme une interface
puisqu’elle entraîne une augmentation de son espace perceptif. Il n’agît pas sur la boîte,
mais avec la boîte. Comme il pourrait agir sur un clou avec un marteau, l’utilisateur agit
sur l’environnement virtuel, avec la boîte. En revanche, pour le concepteur, la boîte est
une interface que l’utilisateur doit déplacer afin de réaliser l’action dans l’environnement
virtuel. Ce faisant, c’est l’utilisateur lui-même qui crée le monde mixte et cette “création” se
fait au niveau cognitif. Le concepteur doit utiliser les mouvements donnés par l’utilisateur
à l’interface pour les affecter à l’environnement artificiel.
Le deuxième exemple que nous avons sélectionné pour illustrer nos propos est présenté plus
en détail dans le Chapitre 3 : Les Systèmes d’Information Géographique puisqu’il s’agît
d’une application proposée par Reitmayr et Schmalstieg (2003b) pour l’aide à la navigation
dans une ville dont une illustration est disponible en Figure 3.15. Dans cette application,
l’utilisateur a la possibilité de se déplacer physiquement et naturellement dans son envi-
ronnement. Il est guidé par les informations géoréférencées que le système lui propose par
l’intermédiaire d’un dispositif d’affichage. L’utilisateur n’est pas connecté à une interface
lui permettant de se déplacer, mais l’efficacité de l’application est directement dépendante
du dispositif technique en charge de positionner (en rotation et en translation) l’utilisateur
afin que les informations proposées soient cohérentes avec son environnement naturel.
Dans certains cas, il est donc possible de trouver, à strictement parler, des interfaces natu-
relles (non pseudonaturelle) comme l’illustre le premier exemple ou une absence (du point
de vue de l’utilisateur) d’interface (ici pour les déplacements) comme l’illustre le second
exemple. Cependant, les technologies utilisées permettant à l’utilisateur de ne pas se sou-
cier de ces interfaces ne sont pas parfaites. En effet, qu’il s’agisse d’une détection et d’un
suivi d’objet pour le premier exemple ou de l’utilisation d’un GPS couplé à une centrale
8. Cette précision semble nécessaire puisqu’il existe des interfaces tangibles dont l’objet physique n’a
pas de fonction en dehors de l’application pour laquelle il est utilisé.

49
Classification globale Chapitre 2. Fondements de la Réalité Augmentée

inertielle pour le second exemple, chacune de ces technologies est sujette à des problèmes de
précision, de latence, d’occlusion, etc. Finalement, ce sont pour ces raisons que nous avons
fait le choix de considérer les interfaces de la réalité augmentée comme des interfaces pseudo-
naturelles eu égard au caractère incohérent que peuvent impliquer les technologies utilisées
même s’il ne s’agit pas d’interface à strictement parler du point de vue de l’utilisateur.

2.7.2 Les interfaces de la modalité visuelle


Nous proposons quelques détails concernant la stimulation de ce sens, car il est le plus utilisé
pour ces applications. Nous pouvons utiliser la classification proposée par Azuma et al.
(2001) concernant les différents dispositifs d’affichage ou plus généralement, des interfaces
sensorielles visuelles. Il classe ces dispositifs en trois types :
Head Mounted Display (HMD) : Appelés aussi “Head Worn Display (HWD)”. Ces dis-
positifs sont portés par l’utilisateur. Ils peuvent être apparentés à des lunettes ou à
des casques. Ils permettent à l’utilisateur de percevoir visuellement son environnement
soit directement (“optical see-throuth” : OST) soit indirectement (“video see-through” :
VST) ;

Handheld Display : Ce sont tous les dispositifs portables munis d’un ou plusieurs écrans
comme les téléphones portables, les consoles de jeux, les tablettes, les ordinateurs
portables, etc. ;

Projective Display : Il s’agit des systèmes qui utilisent des projecteurs. Les projections
permettent d’ajouter des informations directement sur les objets de l’environnement
de l’utilisateur. Il existe des dispositifs de ce type portés par l’utilisateur ou non.

Nous conseillons au lecteur souhaitant obtenir un complément d’information


sur les différents dispositifs d’affichage de lire le Chapitre 2 de la thèse de
doctorat de Bottecchia (2010) ainsi que l’article de Azuma et al. (2001).

3 Classification globale
De la littérature et des considérations précédemment évoquées concernant le caractère à
la fois technique et fonctionnel de la réalité augmentée, nous pouvons donc définir une
description de ces systèmes (Figure 2.12).
Nous retenons que les dimensions de cette classification sont les interfaces,
les bases de données, le contexte et la fonctionnalité.
Nous utiliserons les termes d’interfaces motrices et d’interfaces sensorielles dont les détails
sont donnés dans la Section 2.5.
Interfaces : Nous considérons dans cet axe les interfaces motrices (souris, stylet, joystick,
GPS, etc.) permettant de capter les mouvements et actions de l’utilisateur et les
interfaces sensorielles (écrans, lunettes diverses, retours auditifs, etc.) permettant de
stimuler les sens de l’utilisateur ;
Bases de données : Nous considérons comme base les différents types de données utilisés
comme les modèles numériques de terrain (MNT), de surface (MNS), les photogra-
phies, les modèles 2D, 3D ou le texte, les modèles physiques (MP), etc. ;

50
Chapitre 2. Fondements de la Réalité Augmentée Classification globale

Contexte d’utilisation : Nous considérons que le contexte est lié à l’environnement dans
lequel l’application doit être utilisée ainsi que la possibilité pour l’utilisateur de co-
opérer avec une personne localement, ou à distance. Nous intégrons aussi la “mobilité”
dans cette catégorie. Elle caractérise les applications dont le contenu est dépendant
de la position de l’utilisateur dans son environnement ou du dispositif ;

Fonctionnalité : Nous utilisons évidemment les deux fonctionnalités principales de la réa-


lité augmentée que nous avons déjà définie en Section 2.5.

Classification

Contexte
Interfaces Bases de Données Fonctionnalités
d’utilisation

Environnement Perception et
Motrices Ortho-photo
Intérieur Action augmentée

Environnement Environnement
Sensorielles MNS/MNT
Extérieur Imaginaire

Situation
Photos
de Mobilité

Modèles
Coopération locale
2D/3D/Texte

Coopération
Modèles physiques
à distance

Figure 2.12: Détails de la description des systèmes selon les quatre axes principaux.

Les détails de notre classification sont accessibles dans les Tableaux 2.2, 2.3, 2.4, et 2.5.
Une version en ligne, à laquelle tout le monde peut contribuer en proposant un système de
réalité augmentée qui sera ajouté à la base de données est disponible 9 .

9. La base de données en ligne est disponible ici [Link]


espace-de-caracteristiques/

51
52
Systeme Interface Bases de données Contexte Fonctionnalités
Sensori MNS/ 2D/3D/ Phéno. Coop. Coop. P. A. Env.
Motrice Sensor. Vector Raster Photo Autre Inté. Ext. Mobilité
motrice MNT Txt Phy. locale distante augmenté Imag.

Sutherland (1965)

Wellner (1991)
Classification globale

Caudell et Mizell
(1992)

Want et al. (1992)

Bederson (1995)

Foxlin (1996)

William et al.
(1996)

Kim et al. (1997)

Feiner et al. (1997)

Foxlin et al. (1998)

Piekarski et al.
(1999)

Azuma et al. (1999)

Höllerer et al.

Tableau 2.2: Récapitulatif selon l’espace de caractéristique.


(1999)

Simon et al. (2000)

Dangelmaier et al.
(2000)
Chapitre 2. Fondements de la Réalité Augmentée

Nigay et al. (2001)


Systeme Interface Base de données Contexte Fonctionnalités
MNS/ 2D/3D- Phéno. Coop. Coop. P. A. Env.
Motrice Sensor. SM Vector Raster Photo Autre Inté. Ext. Mobilité
MNT Txt Phy. locale distante augmenté Imag.

Molineros et
Sharma (2001)

Inc (2001)

Macintyre et al.
(2001)

Schnädelbach et al.
(2002)

Ribo et al. (2002)


Chapitre 2. Fondements de la Réalité Augmentée

Romao et al. (2002)

Hung et al. (2002)

Hedley et al. (2002)

Ghadirian et Bishop
(2002)

Zokai et al. (2003)

Reitmayr et
Schmalstieg (2003a)

Piekarski et al.

Tableau 2.3: Récapitulatif selon l’espace de caractéristique (suite).


(2003)

Reitmayr et
Schmalstieg (2003b)

53
Classification globale
54
Systeme Interface Base de données Contexte Fonctionnalités
MNS/ 2D/3D- Phéno. Coop. Coop. Per. Act. Env.
Motrice Sensor. SM Vector Raster Photo Autre Inté. Ext. Mobilité
MNT Txt Phy. locale distante augmenté Imag.

Livingston et al.
(2003)
Classification globale

Takaya et al. (2004)

Song et Takatsuka
(2005)

Reitmayr et al.
(2005)

Didier (2005)

King et al. (2005)

Liarokapis et al.
(2005)

Platonov et al.
(2006)

Radburn (2006)

Amir et Vinett
(2007)

Henderson et Feiner
(2007)

Ghadirian et Bishop

Tableau 2.4: Récapitulatif selon l’espace de caractéristique (suite).


(2008)

Benton et al. (2008)

Schall et al. (2008)


Chapitre 2. Fondements de la Réalité Augmentée
Systeme Interface Base de données Contexte Fonctionnalités
Sensori MNS/ 2D/3D Phéno. Coop. Coop. Per. Act. Env.
Motrice Sensor. Vector Raster Photo Autre Inté. Ext. Mobilité
motrice MNT Txt Phy. locale distante augmenté Imag.

Bottecchia
et al. (2008)

Asai et al.
(2008)

Gonzato et al.
(2008)

Research (2010)

PinkFroot
(2010)
Chapitre 2. Fondements de la Réalité Augmentée

Presselite

Junaio (2010),
Layar (2010)

Nestle (2010)

Qualcom,
Tonchidot

Hugues et al.
(2010b)

Research (2010)

ENSAM -

Tableau 2.5: Récapitulatif selon l’espace de caractéristique (suite).


On-Situ (2010)

Clay et al.
(2009)

55
Classification globale
Classification globale Chapitre 2. Fondements de la Réalité Augmentée

3.1 Synthèse de notre classification

Nous avons donc appliqué notre classification sur 58 systèmes parmi les plus connus de
la littérature (Tableaux 2.2, 2.3, 2.4, et 2.5). Bien qu’ils n’aient aucune valeur statistique,
nous pouvons faire quelques constats concernant les différents axes de notre classification en
analysant notre échantillon. Nous avertissons le lecteur que ces conclusions ne sont valables
que dans le cadre de l’échantillon des systèmes pris en compte. Si le lecteur veut contribuer
à enrichir la base de données des systèmes, il peut se rendre à l’adresse internet indiquée
en bas de la page 51 et naviguer jusqu’à la section “Contribuez”.

Interface : Nous constatons dans notre échantillon que tous les systèmes répertoriés uti-
lisent des interfaces sensorielles (principalement pour stimuler le sens visuel) et mo-
trices (principalement pour capter les mouvements et les déplacements du ou des
utilisateurs) et que peu de systèmes utilisent des interfaces sensorimotrices. Une des
hypothèses de ce constat provient du fait de la difficulté technique à mettre en œuvre
ce type d’interface, surtout lors d’une situation de mobilité ;

Bases de données : Nous constatons une riche diversité des bases de données, mais aussi
que la moyenne des types de base de données utilisés par les systèmes n’est que de
deux ;

Contexte d’utilisation : Nous constatons que la répartition des systèmes conçus pour
être utilisés en extérieur ou en intérieur est relativement proche (55% en extérieur,
45% en intérieur) et que la mobilité de l’utilisateur est systématiquement utilisée lors
d’applications dédiées à l’environnement intérieur. En effet, certains systèmes comme
les bornes utilisées par ENSAM - On-Situ (2010) par exemple, ne nécessitent pas de
connaitre la position de l’utilisateur ;

Fonctionnalité : Nous constatons, toujours dans notre échantillon, une présence impor-
tante de fonctionnalité de perception/action augmentée ce qui nous permet de dire
que la réalité augmentée est plutôt considérée comme un outil pratique (de guidage,
d’aide à la décision, etc.) plutôt qu’un outil dédié à l’évasion intellectuelle bien qu’il
existe de nombreux systèmes artistiques comme celui proposé par Clay et al. (2009)
par exemple.

56
Chapitre 2. Fondements de la Réalité Augmentée La boucle “perception, cognition, action”

100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
C ugm ag.

C ist e

Lo e
M ale

-T .

Se NS eur
In ieur

om A r
2D es e

Ph e
té é

R o
Ve ter

im T

e
y
D té
p. ant

u
èn utr
Ex ilit

ric
ot
-3 Ph

or N
ex
rie
c
p. en
. A Im

as
M ct
ns -M

ot
ob

r

A vi.

D
P. En

oo
oo

én
Ph

Figure 2.13: Pourcentage de chaque élément de l’espace de caractéristiques par rapport à


la totalité des systèmes prit en compte.

La Figure 2.13 représente le pourcentage de chaque catégorie dans notre échantillon. On


remarque la présence importante de la fonctionnalité de perception au d’action augmentée
et des bases de données de type 2D-3D-Texte. On peut noter une particularité intéressante
qui ne ressort pas dans notre classification concernant par exemple le système proposé
par Clay et al. (2009). Dans ce système, les mouvements du danseur sont captés par des
interfaces motrices alors que les interfaces sensorielles ne sont pas exclusivement destinés
au danseur puisque le public qui assiste à la représentation est aussi la cible de ces stimuli
sensoriels.

Tous les systèmes présentés dans les sections précédentes ont été créés pour l’homme. Malgré
un domaine extrêmement dépendant de la technologie comme nous l’avons précisé en Intro-
duction de ce chapitre, les applications doivent être adaptées à l’homme et non l’inverse, à
l’image de la démarche mise en œuvre dans le domaine de l’interaction homme-machine et
en ergonomie. Il est donc nécessaire de s’intéresser à la manière dont l’homme, utilisateur,
perçoit et agit dans son environnement 10 .

4 La boucle “perception, cognition, action”


La littérature propose deux courants principaux qui définissent la perception. D’un côté
(une conception passive), le système sensoriel reçoit passivement des stimulations, traite
ces informations afin de se référer aux représentations internes. De l’autre, (une concep-
tion active), c’est l’extraction de régularité entre les actions et les stimulations qui permet
de percevoir. Il apparait que le courant actuel est plutôt de considérer la perception sous
10. Nous pensons qu’il est utile d’apporter des précisions concernant la perception et l’action d’un homme
dans son environnement. Nous invitons le lecteur souhaitant obtenir des informations plus complètes à
s’orienter vers une littérature plus spécifique au domaine de la psychologie cognitive.

57
La boucle “perception, cognition, action” Chapitre 2. Fondements de la Réalité Augmentée

l’approche sensorimotrice (le deuxième cas), en opposition à une approche linéaire et sé-
quentielle du processus perceptif (le premier cas) d’après Auvray et Fuchs (2007). D’ailleurs,
ceci est confirmé par Gibson (1966) qui considère les sens comme des systèmes perceptifs
complets (« percevoir, c’est extraire grâce aux mouvements cette information en en détec-
tant les invariants. »). Initiée par Gibson (1966), le modèle sous forme d’une boucle de
perception, cognition et action est un modèle répendu en psychologie cognitive.
À la lecture des sections précédentes, il est important de noter une spécificité pour les
systèmes de réalité augmentée. L’utilisateur peut agir sur son environnement augmenté
selon deux catégories. Soit l’utilisateur agit via les interfaces motrices qui captent ses actions
(déplacement, gestes, voix, etc.) soit directement sur l’environnement naturel sans interfaces
intermédiaires (déplacements, gestes, voix, etc.).
Nous retenons que les activités de la première catégorie sont transmises au
système qui les interprète pour actualiser les entités virtuelles alors que les
activités de la deuxième catégorie ne sont pas médiées par le système de
réalité augmentée mais ce dernier doit interpréter les changements de l’en-
vironnement naturel pour, le cas échéant, actualiser les entités virtuelles.

58
Chapitre 2. Fondements de la Réalité Augmentée La boucle “perception, cognition, action”

Le résultat de cette spécificité de la réalité augmentée au regard de la réalité virtuelle se


traduit par les modifications du schéma de la réalité virtuelle (Figure 2.14) illustré dans
la Figure 2.15.

Monde Réel Monde Virtuel

Interfaces motrices

UTILISATEUR(S) CALCULATEUR(S)
Perception Acquisition
Décision Simulation
Action Restitution

Interfaces sensorielles

Figure 2.14: La boucle “perception, cognition, action” passant par le monde virtuel. Extrait
de Fuchs et Moreau (2006).

Monde Réel Association Monde Virtuel

Interfaces motrices

UTILISATEUR(S) CALCULATEUR(S)
Perception Acquisition
Décision Simulation
Action Restitution

Interfaces sensorielles

Figure 2.15: Boucle “perception, cognition, action” identifiée à deux “endroits” : la boucle
est médiée entre l’utilisateur et le monde virtuel, parallèlement, la boucle est “directe” entre
l’utilisateur et le monde réel.

59
Modèle 3i2RA Chapitre 2. Fondements de la Réalité Augmentée

Deux difficultés peuvent avoir des conséquences néfastes sur la boucle “perception, cogni-
tion, action”. Il s’agit de la latence et des incohérences sensorimotrices. Étant donné
que l’utilisateur peut agir au travers d’une interface comportementale ou directement sur
l’environnement naturel, il est possible de trouver différentes sources de latence. La latence
peut provenir du décalage temporel entre une action de l’utilisateur :

1. sur les interfaces motrices et :

(a) la perception des conséquences de cette action sur l’environnement numérique


au travers des interfaces sensorielles ;
(b) la perception des conséquences de cette action sur l’environnement naturel ;

2. sur l’environnement naturel et la perception des conséquences de cette action sur


l’environnement mixte au travers des interfaces sensorielles ;
Les incohérences sensorimotrices sont d’autres conséquences de l’interfaçage de l’utilisateur
avec cet environnement augmenté. Quel que soit le nombre de canaux sensoriels exploités
dans une application, quel que soit le nombre d’interactions à la disposition du sujet, il y
a presque toujours des incohérences sensorimotrices par rapport au comportement sensori-
moteur du sujet dans le monde réel.

5 D’une taxonomie fonctionnelle à un modèle d’interfa-


çage en réalité augmentée
Notre taxonomie fonctionnelle a permis d’identifier les différentes fonctionnalités accessibles
par l’utilisation des systèmes de réalité augmentée. Cependant, pour avoir une portée pra-
tique, nous pensons qu’il est utile d’identifier les entités en jeu lorsqu’il s’agit de proposer
à l’utilisateur un environnement différent de l’environnement naturel, pourtant en partie
“ancré” dans cet environnement par l’intermédiaire d’un (ou plusieurs) dispositif (s) (au
sens très large du terme), qu’il ait conscience ou non de ce(s) dispositif(s). Que cela soit
pour créer un environnement imaginaire ou pour aider l’utilisateur dans son action ou sa
perception sur l’environnement réel, la finalité de la réalité augmentée montre clairement
que l’homme est au centre du système.

5.1 Immersion et Interaction (I2 )


Nous proposons le schéma anthropocentrique (Figure 2.16) de l’immersion de l’homme
dans le monde augmenté tel qu’il doit le percevoir en tant qu’utilisateur. Il faut noter une
différence avec le schéma sur lequel est basé. En effet, bien que nous ayons écrit précédem-
ment que l’environnement créé, par exemple, par la réalité augmentée, est pour l’utilisateur
perçu comme un environnement unique (Section 2.3.3), il n’en est pas moins un environne-
ment techniquement composé même si l’utilisateur peut ne pas en être conscient. En effet,
concernant la réalité augmentée, l’utilisateur perçoit à la fois le monde virtuel médié par
les interfaces comportementales et le monde réel non médié. Nous attirons l’attention du
lecteur sur le fait que la position angulaire des sens dans le schéma est arbitraire. En effet,
la réalité augmentée offre à chaque sens la possibilité d’être soit :
– en relation directe avec le monde réel (comme la vue dans notre schéma) ;
– en relation via une interface avec le monde virtuel (comme l’odorat dans notre schéma) ;
– les deux en même temps (comme l’ouïe dans notre schéma).

60
Chapitre 2. Fondements de la Réalité Augmentée Modèle 3i2RA

MONDE REEL

Perception
forces sur les
muscles muscles
toucher
nerfs
vue

Centres
ouïe nerveux

goût
nerfs
odorat
muscles
Interface Sensorielles
kinesthésie
Interfaces Motrices

MONDE VIRTUEL

Figure 2.16: Schéma anthropocentrique de la perception du monde mixte par l’homme.

Bien que l’individu perçoive son environnement comme un tout, la distinction technique
entre l’environnement virtuel et l’environnement réel est bien pertinente pour le concepteur.
Dans l’objectif de modéliser l’immersion et l’interaction d’un individu dans un environne-
ment de réalité augmentée, il est donc nécessaire de proposer une modélisation “technique”
de l’environnement réel (Figure 2.17). Nous précisons que cette modélisation est très som-
maire et qu’elle est surtout philosophique. Nous considérons, au centre le Noumène de Kant
(1787), partie inaccessible de la Réalité, indépendante de l’individu qui la perçoit. Autour
du Noumène se trouve les objets, constitués de matière, qu’ils soit naturels ou artificiels.
Ces objets, de part leurs caractéristiques (bruit, odeur, saveur, températeur, etc.) génèrent
des stimuli. Cette combinaison complexe présente la Réalité à l’individu. Enfin, c’est ce
dernier qui donne un sens à ce qu’il perçoit mais cette partie n’est pas comprise dans notre
modélisation de la Figure 2.17 puisqu’elle est réalisée à un niveau cognitif.

61
Modèle 3i2RA Chapitre 2. Fondements de la Réalité Augmentée

MONDE REEL

etc.
Bruit
Stimuli
Dimension
Artefacts
Rugosité

Longeur
Noumène
d’onde

Odeur
Artefacts
Saveur
Stimuli
Température

MONDE REEL

Figure 2.17: Proposition d’une modélisation technique du monde réel.

Concernant les processus d’interfaçage, nous avons fait le choix analogue à celui qui a été fait
pour la réalité virtuelle par Fuchs et Moreau (2006) à savoir la décomposition d’un processus
à trois niveaux. Au premier niveau, on peut schématiser l’interfaçage entre l’homme et le
monde mixte au niveau physique. Nous parlons dans ce cas d’immersion et d’interaction
sensorimotrices, puisque le dispositif technique (lorsqu’il s’agit d’un canal médié) est
connecté au corps de l’utilisateur. Au deuxième niveau, nous devons analyser les processus
cognitifs que le sujet va mettre en œuvre et qu’il faudra assister dans son interfaçage avec
l’environnement mixte : c’est le niveau de l’immersion et de l’interaction cognitives.
C’est à ce niveau que l’utilisateur élabore un modèle mental de son environnement (bien que
techniquement, l’environnement soit composé). Le troisième niveau concerne l’application
de réalité augmentée, dont l’objectif est de s’attacher à réaliser une immersion de l’homme
pour une meilleure activité dans son environnement ou pour lui proposer un environnement
imaginaire (cf. les deux fonctionnalités de la réalité augmentée, Section 2.5). Nous parlons
dans ce cas d’immersion et d’interaction fonctionnelles.

62
Chapitre 2. Fondements de la Réalité Augmentée Modèle 3i2RA

63
64
Modèle 3i2RA

I2
Fonctionnelles

Activités de l’homme
dans l’environne-
ment augmenté
Perception augmentée
ou Env. imaginaire

Phénomène Motricité
Motricité Schèmes
désirée Modélisation
I2 Env. Processus Logiciel de
cognitifs
comportementale
Cognitives naturel RA
Perception du monde virtuel
Perception Métaphores désirée
Interfaces
Action
Motrices
Muscles
Réalisation
I2 Centres Réponses Drivers Logiciel
Noumène Physique du
Sensorimotrices nerveux motrices IM Temps réel
monde virtuel

Figure 2.18: Modèle 3i2RA pour la réalité augmentée.


Sens
Drivers
Interfaces IS
Réaction
Sensorielles
Chapitre 2. Fondements de la Réalité Augmentée
I2
Fonctionnelles
LE MONDE
LA PERSONNE
VIRTUEL
Activités de l’homme
dans le monde virtuel
PCV

Motricité désirée
Schèmes
Chapitre 2. Fondements de la Réalité Augmentée

Processus
Modélisation
I2
Activité désirée Logiciel RV comportementale
Cognitives cognitifs
Métaphores ALCog du monde virtuel
Perception désirée
Interfaces
Motrices
Réalisation
I2 Centres Réponses Drivers Logiciel
Physique du
Sensorimotrices nerveux motrices IM Temps réel
monde virtuel
Stimuli Drivers
sensoriels Interfaces IS
Sensorielles

Figure 2.19: Modèle de référence en réalité virtuelle proposé par Fuchs et al. (2001).

65
Modèle 3i2RA
Modèle 3i2RA Chapitre 2. Fondements de la Réalité Augmentée

En conséquence, nous obtenons le schéma technocentrique des environnements de réalité


augmentée en Figure 2.18. Afin que le lecteur puisse comparer le modèle 3i2RA par rapport
au modèle 3i2, nous proposons une illustration de ce dernier en Figure 2.19. La différence
principale entre les deux modèles est bien la présence d’une branche supplémentaire dans
le modèle 3i2RA. Cette branche correspond à l’environnement naturel dans lequel évolue
l’utilisateur. Notre modèle présente aussi les trois étages verticaux permettant d’identifier
les différents niveaux d’immersion et d’interaction présentés précédemment. La branche
centrale représente quant à elle l’utilisateur. Notre modèle souligne assez clairement les
points pour lesquels les concepteurs doivent être vigilants. En effet, il met en évidence le
caractère non symétrique de l’interaction d’un utilisateur dans un environnement à la fois
médié et non médié. Les différences sont identifiées d’un point de vue sensorimoteur (l’action
non médiée par rapport aux interfaces motrices par exemple) et d’un point de vue cognitif
(la motricité par rapport à la motricité désirée).

66
Chapitre 2. Fondements de la Réalité Augmentée Conclusion

6 Conclusion
Nous avons présenté dans ce chapitre les fondements de la réalité augmentée. Après avoir
présenté les différentes définitions proposées dans la littérature ainsi que l’étymologie du
terme, nous pronons une approche à la fois conceptuelle et technologique de la réalité
augmentée. Nous avons d’abord proposé la finalité de la réalité augmentée, basée sur l’ob-
servation des différents systèmes. La finalité de la réalité augmentée est de permettre à
une personne de réaliser des activités sensorimotrices et cognitives dans un espace mixte
associant l’environnement réel et un environnement artificiel. La réalité augmentée peut pro-
poser soit une modélisation du monde réel sur la base d’un monde qui imite ou symbolise
certains aspects du monde réel, soit la création d’un monde imaginaire ne correspondant
à rien d’actuel. Nous avons ensuite proposé une définition technique organisée selon six
points caractéristiques. Après avoir recensé les différentes classifications impliquant la réa-
lité augmentée, nous proposons notre classification basée sur un espace de caractéristiques
composé de quatre dimensions orthogonales qui sont les interfaces, les bases de données, le
contexte et la fonctionnalité. Nous avons ensuite appliqué cet espace à de nombreux sys-
tèmes issus de la littérature afin d’en montrer le caractère générique. En nous appuyant
fortement sur les travaux du domaine de la réalité virtuelle, et plus particulièrement du
modèle de Fuchs et al. (2001), nous proposons un modèle d’immersion et d’interaction pour
la réalité augmentée, nommé 3i2RA. Un modèle organisé selon trois niveaux d’immersion
et d’interaction (sensorimotrice, cognitive et fonctionnel).
Nous espérons apporter une certaine unification auprès de la communauté et des acteurs
du domaine de la réalité augmentée par l’introduction de ces définitions distinguant les
fonctionnalités des considérations techniques de ce type d’applications.
Il est maintenant nécessaire de savoir dans quelle mesure la réalité augmentée peut être uti-
lisée pour l’aide à la navigation. Nous présentons donc dans le chapitre suivant les systèmes
informatiques dédiés à l’aide à la navigation et plus particulièrement ceux qui utilisent la
réalité augmentée.

67
Chapitre 3

Les Systèmes d’Information


Géographique

Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

2 Les étapes d’un système d’information géographique . . . . . . . 70

3 Chaîne de traitement des informations . . . . . . . . . . . . . . . 71

4 La tâche de navigation . . . . . . . . . . . . . . . . . . . . . . . . . 73

5 Les SIG pour la Navigation Maritime . . . . . . . . . . . . . . . . 84

6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

Résumé

Nous présentons dans ce chapitre les systèmes d’information géographique et plus par-
ticulièrement ceux destinés à l’aide à la navigation. Après la présentation des différents
composants de tels systèmes, nous illustrons la chaîne de traitement des informations de-
puis l’acquisition jusqu’à l’affichage. Puisqu’il s’agit d’utiliser ces systèmes pour l’aide à la
navigation, nous présentons les différents modèles génériques de navigation qui ont été pro-
posés dans la littérature et nous détaillons plus particulièrement le modèle apte à prendre
en compte les spécificités des situations rencontrées dans le domaine maritime. Nous propo-
sons ensuite un tour d’horizon des systèmes d’information géographique utilisant la réalité
augmentée que nous avons décidé de ranger en deux catégories selon l’objet des augmen-
tations.. Enfin, nous détaillons les systèmes d’information géographique conçus pour être
utilisés en navigation maritime et nous montrons les difficultés rencontrées lors de l’utilisa-
tion de tels systèmes. Des hypothèses sont proposées concernant les améliorations possibles
pour ces systèmes dont la principale et de proposer à l’utilisateur dans une vue unique des
informations issues d’une approche globale et locale de la tâche de navigation.
Introduction Chapitre 3. Les Systèmes d’Information Géographique

1 Introduction
Les systèmes d’information géographique (SIG) sont des systèmes d’informations (SI) ca-
pables d’organiser et de présenter des données spatialement référencées. Ils sont aussi consi-
dérés comme des Systèmes Interactifs. Golhen (1996) précise que ce concept d’information
géographique a toujours existé. En effet, on la trouve dans des formes très variées comme
le nom des lieux, les directions, les points de passage, la distance ou le temps de parcours.
Avec l’avènement de l’informatique, les développements de systèmes d’information spatiali-
sés répondent à de nombreux besoins que nous présentons par la suite. Utilisant un certain
nombre de bases de données, ces systèmes permettent d’acquérir les informations géogra-
phiques sous forme numérique. Ils archivent ensuite ces informations sous forme de base
de données. Ils permettent d’analyser par la manipulation et l’interrogation des données
géographiques. Ils affichent ensuite ces informations avec des techniques de visualisation
afin d’en faciliter l’interprétation. Ces systèmes, en raison de leur diversité, présentent de
nombreuses problématiques.

2 Les étapes d’un système d’information géographique


Les systèmes d’information géographique font face à plusieurs problématiques techniques
et scientifiques pour chacune des étapes suivantes identifiées par Denègre et Salgé (2004) :
Acquisition Représente l’importation numérique des données récoltées sur le terrain.
C’est la qualité demandée en bout de chaîne qui va imposer l’utilisation
de certaines technologies pour réaliser les relevés sur le terrain ;

Archivage Représente la gestion de la base de données, des différentes sources, de leurs


intégrités et de leurs cohérences. La gestion de données multisource repré-
sente une des difficultés importantes ;

Analyse Représente la manipulation et l’interrogation des données. Les données pou-


vant cibler des objets de tous types, des phénomènes, des évènements, etc.
entraînant ainsi des difficultés pour la réalisation de cette analyse. Les sys-
tèmes d’information géographique permettent globalement de répondre à
cinq questions ;
Où : Permet de connaître la localisation géographique d’un ensemble
d’éléments ou d’un élément particulier ;
Quoi/Qui : Permet de connaître le type d’un ensemble d’éléments ou d’un
élément dans la zone étudiée ;
Comment : Permet d’analyser spatialement un ensemble d’éléments ou un
élément concernant la répartition des entités et leurs liens dans
la zone étudiée ;
Quand : Permet de réaliser une analyse temporelle d’un ensemble d’élé-
ments ou d’un élément particulier ;
Et si : Par l’utilisation des différents types d’analyse précédents, il est
possible de répondre à des questions de type “Et si l’implan-
tation d’un magasin se fesait ici” ou “et si le niveau des eaux
monte de quarante centimètres”, etc. ;

70
Chapitre 3. Les Systèmes d’Information Géographique Chaîne de traitement des informations

Affichage Représente la mise à disposition des informations contenues dans la base


de données sous une forme compréhensible par l’utilisateur. Différentes abs-
tractions sont faites pour alléger le système (vecteur, rasteur, résolutions
multi-échelle, symbolisation...). Les systèmes basés sur une représentation
par “carte”, utilisent des simplifications ou abstractions qui ont été forma-
lisées par Bertin (1967) lorsqu’il a défini la sémiologie graphique ou plus
récemment par Brunet (1980) lorsqu’il propose la notion de “Chorèmes” 1 ;

La qualité des données lors de l’affichage doit évidemment être prise en compte dans chaque
étape de la chaîne de traitement des informations. Qu’elle soit interne (adéquation entre
une carte ou une base de données et ce qu’elle aurait dû être) ou externe (adéquation
entre la carte ou une base de données et les besoins de son utilisateur), la qualité est
sujette à de nombreuses discussions dans la communauté depuis bientôt trente ans comme
le souligne Devilliers et al. (2010).

3 Chaîne de traitement des informations

Deux approches sont possibles pour détailler le traitement des informations. La première
propose une organisation classique des traitements des données d’un système d’information
géographique selon un schéma illustré en Figure 3.1a. Il s’agit d’acquérir les données depuis
le “Terrain”, de les “Archiver”, de les “Analyser” suivant le type de système d’information
géographique et enfin d’afficher les informations. D’un point de vue moins technique et plus
orienté vers l’utilisateur, un rapport de l’Institut Geographique National (1999) propose
une deuxième approche, illustré en Figure 3.1b. Cette approche considère le “monde réel”
ainsi qu’un “modèle mental du monde réel” créé par l’utilisateur. Ce dernier doit extraire les
informations par une interprétation des données. L’interprétation de ces données est rendue
possible par des techniques cartographiques issues de la sémiologie graphique (détails
en Section 3.1). Cette sémiologie, basée sur une histoire maritime de plusieurs siècle a été
formalisée par Bertin (1967). Ce qui nous semble important de souligner c’est le fait que
ces deux approches ne rendent pas compte de deux particularités importantes :

1. L’utilisateur est parfois amené à être localisé spatialement et temporellement à l’en-


droit et au moment qui correspond à ses propres requêtes dans le système d’informa-
tion géographique : en effet, il n’y a pas de notion spatio-temporelle dans le modèle
illustré en Figure 3.1 ;

2. Le type de point de vue peut être allocentré ou égocentré : la notion de lecture d’une
carte dans le modèle de la Figure 3.1b implique un point de vue allocentré et élude
le point de vue égocentré.

1. Représentations schématiques destinées à créer des modèles graphiques représentant un espace ou un


type d’espace et les phénomènes spatiaux qui le concernent.

71
Chaîne de traitement des informations Chapitre 3. Les Systèmes d’Information Géographique

Terrain Acquisition Archivage Analyse Affichage

(a) Chaîne de traitement classique des données géographiques.

Information
{ Monde Réel

{
Phénomène observé

Saisie de données Technique de saisie

Données brutes

Données Interprétées
{ Techniques cartographiques

Carte

Information Extraite
{ Lecture

Modèle mental du Monde Réel


(b) De l’information de l’environnement réel au modèle mental du monde
réel en passant par la cartographie. Modèle extrait d’un rapport de
l’Institut Geographique National (1999).

Figure 3.1: Chaîne de traitement classique des données d’un système d’information géo-
graphique.

En effet, dans le cas classique, le système d’affichage nécessite deux vecteurs d’entrée :
1. Requête utilisateur ;
2. Paramètres d’affichage (facteurs d’échelles, abstractions, symbolisations, etc.) ;
Pour d’autres systèmes, ceux dont l’affichage des données est dépendant de la position et
de l’orientation de l’utilisateur dans son environnement, l’ajout d’une nouvelle composante
doit être pris en compte :
1. Position et orientation de l’utilisateur au moment de l’utilisation du système d’in-
formation géographique ;
Pour obtenir des informations issues de ce type de système d’information géographique,
l’utilisateur ne doit pas seulement lancer la bonne requête, mais aussi être à la bonne
position et dans la bonne orientation. Prenons par exemple une application sur dispositif
mobile utilisant un système d’affichage par réalité augmentée permettant de localiser les
restaurants environnants. Après avoir fait la sélection du type de point d’intéret (ici les
restaurants) et après avoir réglé un paramètre de distance pour fixer un rayon d’action de
la requête, l’utilisateur est obligé d’explorer le résultat par des changements de position
et surtout d’orientation de son téléphone portable. C’est pour cela que nous proposons de
modifier la chaîne d’un système d’information géographique en y ajoutant deux notions.
Premièrement, nous ajoutons le caractère “temps réel” pour l’observation des informations.
Deuxièmement, par l’insertion du “Terrain”, nous ajoutons le caractère spatial lors de la
consultation des données. Ce nouveau modèle spatio-temporel de traitement des données
est illustré en Figure 3.2.

72
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation

Temps réel

Terrain
Non temps réel

Terrain Acqui. Archiv. Analyse Affichage

Figure 3.2: Modèle spatio-temporel de la chaine de traitement des données d’un système
d’information géographique utilisant un système dépendant de la position et de l’orientation
de l’utilisateur.

3.1 Symbolisation des données


La “carte” utilise une symbolique conventionnelle définie par la sémiologie graphique qui
hérite directement de la sémiologie de la communication. Concernant la transmission d’un
message, l’Institut Geographique National (1999) précise que “la carte” peut à ce titre,
être considérée comme un langage. Elle dispose en effet de certaines propriétés comme la
structure du message ou une relative universalité lui permettant d’être considéré comme tel.
Cependant, comme de nombreux moyens de communication, le lecteur qui extrait l’informa-
tion introduira à son insu une connotation personnelle de son décryptage. La symbolisation
des données entraîne donc une différence de représentation entre l’environnement naturel
et la carte qui le représente afin d’en extraire les informations importantes.
Nous proposons de considérer le Terrain (l’environnement concerné) comme étant l’envi-
ronnement naturel ou un sous-élément de celui-ci, et le système d’information géographique
comme un environnement synthétique composé d’entités numériques sémantiquement liées
avec les entités et phénomènes de l’environnement réel.

4 La tâche de navigation
Il existe de nombreux cas dans lesquels l’utilisation d’un système d’information géogra-
phique est intéressante. Par exemple, les analyses spatiales ou la prise de décision pour
l’aménagement du territoire sont réalisées à l’aide d’un système d’information géographique.
Le domaine du marketing utilise aussi très souvent les SIG pour définir l’implémentation
des points de vente ou pour optimiser la distribution. Tous les systèmes informatiques basés
sur de la cartographie sont considérés comme des SIG. Cependant, la fonctionnalité prin-
cipale d’un système d’information géographique et de fournir un outil d’aide à la décision
spatiale et cela est d’autant plus vrai lorsqu’il s’agit d’utiliser un système d’information
géographique en situation de mobilité pour l’aide à la navigation routière ou maritime par
exemple.
Initialement, le mot navigation provient du latin “navigatio” signifiant l’action de naviguer,
de voyager sur la mer ou les rivières selon l’Académie Française (navigation). Aujourd’hui,
de nombreuses acceptions dérivent du terme navigation et qu’il s’agisse de navigation spa-
tiale 2 , maritime, aérienne ou terrestre, de nombreuses personnes rencontrent des difficultés
2. Nous considérons la navigation spatiale d’un individu indépendamment du type d’environnement qu’il
expérimente (réel ou virtuel).

73
La tâche de navigation Chapitre 3. Les Systèmes d’Information Géographique

de différentes sortes 3 face à une tâche de navigation. Cela parait donc délicat de conce-
voir un système d’aide à la navigation sans préalablement comprendre les mécanismes qui
sous-tendent ce type d’action sur un individu. En effet, qu’il s’agisse d’un touriste perdu
dans une ville inconnue ou d’un joueur sur ordinateur ou sur console vidéo désorienté dans
l’environnement virtuel créé par le jeu, toutes ces personnes expérimentent des difficultés
de navigation. De nombreux modèles de navigation ont été proposés dans la littérature et
le premier objectif de ce chapitre est d’extraire le modèle le plus apte à rendre compte des
difficultés rencontrées en navigation maritime et parallèlement lors d’une utilisation d’un
outil d’aide à la navigation. En effet, comme nous l’avons détaillé dans le Chapitre 1 : In-
troduction Générale, nous rappelons que le navigateur dispose d’un système d’information
géographique pour l’aider dans sa tâche de navigation. Il nous est donc nécessaire de prendre
en compte deux sources de difficultés pour la navigation : l’environnement maritime dans
lequel il doit évoluer physiquement et l’outil d’aide à la navigation dans lequel il peut évo-
luer mentalement. Dans un second temps, nous proposerons un tour d’horizon de différents
systèmes d’information géographique dont la particularité est d’utiliser la réalité augmentée
dans leur composant d’affichage des informations afin d’en extraire les problématiques et
les perspectives d’évolution.

4.1 Les modèles de navigation


La navigation est définie par Wiener et al. (2008) comme l’action de planifier et suivre un
parcours vers un but. Ce type d’action nécessite de se référer à un cadre théorique solide pour
concevoir une aide à la navigation. Une lecture rapide de la littérature nous apprend qu’il
existe deux stratégies qu’un individu met en œuvre lors d’une tâche de navigation. D’une
part on trouve la stratégie de déplacement égocentrée (ou navigation locale) et d’autre part
la stratégie allocentrée (ou navigation globale). Pour la première catégorie, la navigation
se traduit en une tâche de suivi d’une route alors que pour la deuxième catégorie, la tâche
consiste en une appropriation globale de l’environnement. Évidemment, les informations
nécessaires pour mettre en œuvre ces deux stratégies sont différentes. La littérature pro-
pose de nombreux modèles pour traduire ces deux approches. On peut citer par exemple
les modèles proposés par Neisser (1976); Downs et Stea (1977); Passini (1992); Wickens
et Prevett (1995); Spence (1999); Chen et Stanney (1999) mais comme le précise Wang
(2004), nombre de ces modèles sont spécifiques à un type d’environnement ou à une tâche
particulière entraînant des difficultés à les généraliser. De plus Parush et Berman (2004) ont
observé que l’utilisation d’un même type d’aide à la navigation entraîne différents bénéfices
suivant les personnes. Cependant, le modèle le plus générique est certainement celui qui
est proposé par Wickens et Prevett (1995). Ce modèle, illustré en Figure 3.3, est composé
de trois niveaux distincts. Le premier niveau (le plus bas) définit les tâches de navigation
fondamentales (navigation locale ou navigation globale). Les connaissances nécessaires pour
chacune de ces tâches sont décrites dans le deuxième niveau (au milieu). Enfin, les fonction-
nalités d’affichage des informations permettant de supporter les tâches sont définies dans le
troisième niveau (en haut). Pour les situations nécessitant de mettre en œuvre à la fois une
navigation locale et une navigation globale, des transformations doivent être réalisées par
l’individu. C’est ce qui est indiqué dans la partie centrale du deuxième niveau du modèle.
L’individu est amené à effectuer des changements d’échelle, imaginer ou réaliser des opéra-
tions de rotations mentales 4 . Ce sont justement ces actions qui obligent à des compromis
au niveau de l’affichage des informations.
3. Les différentes difficultés rencontrées seront détaillées dans la Section 5.3.
4. Cette notion a été proposée par Shepard et Metzler (1971) concernant la stratégie mise en œuvre par
un individu permettant de comparer deux volumes géométriques présentés selon des orientations différentes.

74
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation

Repère de réfé- Repère de réfé-


Affichage : Compromis
rence égocentrique rence allocentrique

Zoom

Repère de réfé- Repère de réfé-


Connaissance : Rotation mentale
rence égocentrique rence allocentrique

Imagination

Tâche : Navigation locale Navigation globale

Figure 3.3: Le modèle de navigation (traduit et adapté) de Wickens et Prevett (1995) qui
représente la navigation locale et globale.

Darken et al. (1999) précisent que la navigation peut être considérée comme un processus
d’extraction de l’information, de la création d’une représentation mentale et de l’utilisation
de cette représentation pour planifier un chemin et le suivre. Dans ce cas, les deux objectifs
principaux que doit atteindre la personne en situation de navigation sont premièrement de
comprendre la structure spatiale de la zone dans laquelle il se situe et deuxièmement de
réaliser les actions nécessaires pour rejoindre sa destination. Wang (2004) précise que le pre-
mier objectif est de l’ordre du cognitif puisqu’il intègre la connaissance de la configuration
et de la structure de l’environnement dans lequel évolue l’utilisateur (ou son avatar) et que
le deuxième objectif est d’ordre physique surtout lorsqu’il s’agit d’agir sur des interfaces
motrices comme le volant d’une voiture ou l’utilisation d’une manette pour déplacer un
avatar dans l’environnement virtuel d’un jeu vidéo.

75
La tâche de navigation Chapitre 3. Les Systèmes d’Information Géographique

Nous retenons qu’une activité de navigation peut donc se décomposer na-


turellement en trois tâches. Il s’agit de la tâche de perception de l’envi-
ronnement, de la tâche de génération d’une représentation mentale de cet
environnement, et de la tâche d’action dans cet environnement.
Nous proposons donc dans les sections suivantes un tour d’horizon des systèmes d’informa-
tion géographique utilisant la réalité augmentée pour ensuite montrer les difficultés rencon-
trées lors de l’utilisation de ce type de système.

4.2 Système d’information géographique et réalité augmentée : un


tour d’horizon
Dans le contexte d’informations géographiques, et en respectant notre approche fonction-
nelle de la réalité augmentée mentionnée dans le Chapitre 2 : Fondements de la Réalité
Augmentée , nous proposons de séparer les applications en deux grands groupes. Le premier
caractérise les applications dont la finalité est la manipulation de données géographiques.
Nous nommerons cette fonctionnalité “Carte Augmentée”. Le second caractérise les applica-
tions dont la finalité est de permettre à l’utilisateur de mieux agir dans son environnement.
Nous nommerons cette fonctionnalité “Territoire Augmenté”.

4.2.1 Carte Augmentée


La finalité d’une application de ce type est de permettre à une ou plusieurs
personnes l’exploration de données géographiques provenant indifféremment
de l’environnement réel ou d’un environnement synthétique.

Par exemple, le prototype proposé par Lia-


rokapis et al. (2005) est un système de pré-
sentation d’informations géographiques. Les
données sont caractérisées par des modèles
numériques 3D. Présenté comme un cadre
de conception (“framework”) spécifique pour
présenter des données géographiques en in-
térieur ou en extérieur, les expérimentations
proposées n’exposent que l’application inté-
rieure en proposant la manipulation des don-
nées via des marqueurs (Figure 3.4). Cette
interface de navigation permet d’explorer
les données géographiques en manipulant les Figure 3.4: Exploration de données géogra-
marqueurs. C’est un cas de compréhension phiques par modification du point de vue des
augmenté. données. Application proposée par Liaroka-
pis et al. (2005). Cas de compréhension aug-
menté.

Hedley et al. (2002) proposent deux possibilités pour explorer les données géographiques
de manière collaborative. La première est une interface qui combine la réalité augmentée
et le tracking de la main de l’utilisateur par analyse d’image. Les utilisateurs peuvent ainsi
regarder une carte géographique réelle (en papier) et apercevoir un modèle 3D recalé sur

76
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation

cette carte (Figure 3.5a). La deuxième possibilité propose différentes techniques d’interac-
tion (zoom, déplacements, annotations, etc.) en utilisant par exemple la métaphore de la
loupe afin que les utilisateurs puissent explorer les données (Figure 3.5b). Ce sont des cas
de compréhension augmentée.

(a) Visualisation de données géographiques. Com- (b) Interaction (“Paddle Interaction”)


préhension augmentée.

Figure 3.5: Visualisation de données géographiques et interactions. Application proposée


par Hedley et al. (2002)

Utilisant eux aussi la technique popularisée


par ARToolKit (2010), Asai et al. (2008) pro-
posent plusieurs techniques d’exploration
des données géographiques d’une mission lu-
naire de la NASA au travers d’interacteurs
de type “baguettes”. Les marqueurs sont uti-
lisés comme métaphores (Figure 3.6) issues
de la vie courante (loupe pour zoomer) ou
issues d’interfaces informatiques comme les
curseurs linéaires (“sliders”) pour faire va-
rier linéairement la valeur de certains para-
mètres. Figure 3.6: Métaphores d’interaction
(exemple du slider) proposée par Asai et al.
(2008)

77
La tâche de navigation Chapitre 3. Les Systèmes d’Information Géographique

Un autre exemple propose d’utiliser la réa-


lité augmentée combinée avec un PDA pour
faciliter l’utilisation d’une carte papier. Des
contenus vidéo ou images sont ainsi proposés
aux utilisateurs contextuellement à la carte
papier. En plus des ces augmentations, ils
proposent des interactions comme l’explora-
tion d’images en fonction d’un point sélec-
tionné sur la carte (Figure 3.7). C’est un cas
de réalité documentée.
Figure 3.7: Exploration d’image depuis la
cartographie proposée par Reitmayr et al.
(2005). Réalité documentée.

Paelke et Sester (2009) proposent une comparaison entre les cartes papier et les cartes
électroniques. Ils proposent de comparer ces deux moyens de consultation d’informations
géographiques en distinguant trois catégories principales : les fonctionnalités, le contenu
ainsi que l’utilisation et l’interaction. Cette analyse permet aux auteurs de conclure que
les deux approches (papier ou électronique) sont complémentaires dans de nombreux cas.
Cette conclusion a permis aux auteurs de développer un prototype utilisant un PDA et un
positionnement basé marqueur pour la consultation de données géographiques d’une carte
électronique sur mobile.

4.2.2 Territoire Augmenté

La finalité d’une application de ce type est d’apporter à une ou plusieurs per-


sonnes un apport d’informations pour l’exploration de notre environnement
naturel.

Par exemple, Reitmayr et Schmalstieg (2003a) proposent deux applications de réalité aug-
mentée en intérieur. La première est une aide à l’exploration d’un bâtiment (Figure 3.8b)
et la seconde une application permettant d’aider à la recherche dans une bibliothèque (Fi-
gure 3.8a). Ces deux applications sont basées sur un système de marqueurs. Ce sont des cas
de visibilité augmentée.

78
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation

(a) Aide pour trouver son chemin dans un bâti- (b) Aide pour trouver un livre dans une biblio-
ment. thèque.

Figure 3.8: Deux exemples d’applications de réalité augmentée pour l’aide à la navigation
en environnement intérieur proposée par Reitmayr et Schmalstieg (2003a). Cas de visibilité
augmentée.

Kim et al. (1997) proposent un système de réalité augmentée dont la caméra est posée
sur un hélicoptère. Ce dernier vole au-dessus des bâtiments et envoie la vidéo au sol ainsi
que sa position et son orientation via une communication sans fil. Une fois les données
(vidéo, position, orientation) récoltées, elles sont mises en commun avec une base de données
permettant d’afficher sur la vidéo, le nom des bâtiments par exemple.

79
La tâche de navigation Chapitre 3. Les Systèmes d’Information Géographique

Radburn (2006) proposent un démonstrateur


de réalité augmentée permettant d’incruster
des informations géographiques (noms et nu-
méros de rues, noms de monuments, etc.)
comme illustré en Figure 3.9 dans un flux
vidéo disponible pour l’utilisateur au travers
d’un écran (réalité augmentée en vision indi-
recte). Les données géographiques sont ex-
traites depuis la base de données anglaise
maintenue par Ordnance Survey (2010). Le
recalage est effectué par la combinaison d’un
GPS pour la position et d’une centrale iner- Figure 3.9: Une vue de monuments depuis
tielle pour l’orientation. L’accès aux données le pont de Westminster (Londres) proposée
se fait par WiFi. Des efforts ont été faits sur par Radburn (2006). Cas de réalité à com-
le placement des labels et sur la synchroni- préhension augmentée.
sation de l’orientation.

Une application permettant à l’utilisateur


d’être informé sur la position, le nom et l’al-
titude et certaines autres informations des
sommets environnants est proposée par Re-
search (2010). L’utilisateur regarde les som-
mets des montagnes au travers de l’écran
de son mobile et l’application (nommée
[Link]) apporte des informations utiles en
incrustant des étiquettes textuelles sur le flux
Figure 3.10: [Link] : une application de vidéo. (Figure 3.10).
réalité augmentée permettant d’obtenir des
informations sur les sommets environnants..
C’est un cas de réalité à compréhension aug-
mentée.

ARVino est un démonstrateur issu du projet


Tinmith de Piekarski (2010) permettant la
visualisation augmentée de données viticoles
géolocalisées. King et al. (2005) proposent
des solutions techniques pour éviter la sur-
charge de couleurs des informations synthé-
tiques qui se superposent ainsi que la gestion
de la transparence de ces objets dans le but
de ne pas occulter les données issues de l’en-
vironnement naturel (Figure 3.11). Il s’agit
d’un cas de réalité à visibilité augmentée.
Figure 3.11: Un exemple d’augmentation
du démonstrateur ARVino de King et al.
(2005). Réalité à visibilité augmentée.

80
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation

Takaya et al. (2004) utilisent un GPS à ciné-


matique temps-réel (“Real-Time Kinematic
GPS”), plus précis qu’un GPS classique. Leur
démonstrateur, baptisé “Geo-Media”, est ca-
pable de mélanger le monde physique et des
objets virtuels artistiques. Augurscope est
une interface utilisant aussi un GPS et des
capteurs inertiels afin de proposer un en-
vironnement virtuel dont le point de vue
(dans l’environnement virtuel) dépend du
point de vue dans l’environnement physique
(Figure 3.12). Il est utilisé par Schnädelbach
et al. (2002) pour une application permet-
tant au public d’explorer un château médié-
Figure 3.12: Détail de l’Augurscope de
val. Il s’agit d’un cas de visibilité augmentée.
(Schnädelbach et al., 2002). Visibilité aug-
mentée.

ARGIS est un projet de visualisation d’in-


formation au cours d’un projet de construc-
tion d’un aérodrome proposé par Guo et al.
(2008). Outre le mécanisme classique de re-
calage des informations géographiques vir-
tuelles sur le flux vidéo par détection de
points d’intérêt, ils proposent une visuali-
sation augmentée “rayon-x” permettant de
voir ce que l’œil nu n’aurait pas perçu (Fi-
Figure 3.13: Mode de visualisation “Rayon- gure 3.13). C’est un cas de visibilité augmen-
x” des informations d’un chantier de tée.
construction de (Guo et al., 2008). Visibilité
augmentée.

En rapport avec la visualisation de données géographiques enterrées, Schall et al. (2008)


proposent une application de réalité augmentée en vision indirecte issue du projet Vidente
permettant de visualiser des canalisations souterraines (Figure 3.14a) via un UMPC 5 (Fi-
gure 3.14b). Il s’agit d’un cas de visibilité augmentée.

5. Ultra Mobile Personal Computer.

81
La tâche de navigation Chapitre 3. Les Systèmes d’Information Géographique

(a) Vue d’un modèle 3D géoréférencé sur site. (b) UMPC (Ultra Mobile Personal Computer)
permettant de visualiser les informations souter-
raines.

Figure 3.14: Visualisation d’infrastructures souterraines. Visibilité augmentée.

Romao et al. (2002) proposent une solution flexible client-serveur où les données géogra-
phiques et les modèles 3D sont localisés sur le serveur et les composants d’affichage et
de présentation des données sont localisés chez le client. On trouve aussi chez Reitmayr
et Schmalstieg (2003b) une stratégie de gestion des informations géographiques dont l’ar-
chitecture trois-tiers permet l’utilisation de ces données pour une application de réalité
augmentée collaborative (deux utilisateurs) et la réutilisation des données pour d’autres
applications. Le démonstrateur, illustré en Figure 3.15, est une application d’aide à la na-
vigation dans une d’une ville. Il s’agit d’un cas de visibilité augmentée combinée avec de la
réalité documentée.

Figure 3.15: Exemple d’augmentation lors du suivi d’un chemin en ville (Reitmayr et
Schmalstieg, 2003b). Visibilité augmentée combinée avec de la réalité documentée.

Une application de visualisation des changements de l’environnement utilisant la réalité


augmentée et des données géographiques est proposée par Ghadirian et Bishop (2002).
Ils proposent l’augmentation de données géographiques via un modèle d’érosion permet-
tant de faire comprendre à l’utilisateur les dégâts du temps qui passe sur l’environnement.
Dans Ghadirian et Bishop (2008), les auteurs proposent une méthode permettant d’obtenir

82
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation

un rendu physiquement réaliste des données d’un système d’information géographique en


utilisant la réalité augmentée.
Dans le domaine automobile, il est possible de citer Wikitude (2010) qui est une application
fonctionnant sous le système d’exploitation Google Android devant être installée sur une
plateforme mobile disposant d’un capteur vidéo et d’un GPS. La société Blaupunkt propose
quant à elle à la commercialisation depuis 2009 un dispositif d’aide à la conduite dont
l’affichage utilise un capteur vidéo embarqué.

(a) Système d’aide à la conduite automobile (b) Système d’aide à la conduite automobile
de Wikitude (2010). Cas de visibilité augmen- de (Blaupunkt, 2010). Combinaison d’une réa-
tée. lité documentée et d’une visibilité augmentée.

Figure 3.16: Application d’aide à la conduite automobile combinant système d’information


géographique et réalité augmentée

Construire son Territoire Augmenté Toutes les applications précédemment présen-


tées sont très peu paramétrables. En effet, les augmentations sont prévues par le concepteur.
L’utilisateur ne peut que très peu modifier le symbolisme ou les types d’augmentations. Ce-
pendant, il existe aussi des applications permettant aux utilisateurs de définir leur propre
territoire augmenté. Au travers d’interfaces Web ou de modules de création intégrés di-
rectement dans les applications, certaines solutions permettent à l’utilisateur de construire
ses propres augmentations. Par exemple, Layar (2010); Wikitude (2010); Tonchidot (2010);
Qualcom (2010) ou Junaio (2010) sont des applications vendues comme des “moteurs de
recherche” en réalité augmentée. Ces applications proposent aux utilisateurs de définir des
layer s. Ces layers sont des couches d’informations ou des couches de points d’intérêt (POI) 6
défini par l’utilisateur lui-même. Lorsque ces layers sont activés dans l’interface des diffé-
rentes applications respectives, ces dernières utilisent les ressources matérielles de la plate-
forme sur laquelle elles sont installées (GPS, gyroscope, accéléromètre, capteur vidéo, etc.)
pour positionner les POI sur le flux vidéo du mobile. Depuis les derniers tweets 7 environ-
nant à la position des restaurants, de coiffeurs ou de lieux culturels, ces plateformes offrent
un cadre de développement permettant à chaque utilisateur de créer son propre territoire
augmenté.

6. “Point of Interest”.
7. Message issus de Twitter, outil de réseau social et de microblogage qui permet à l’utilisateur d’envoyer
des messages brefs.

83
Les SIG pour la Navigation Maritime Chapitre 3. Les Systèmes d’Information Géographique

Nous retenons que lorsque les augmentations numériques ciblent les données
du système d’information géographique, nous parlons alors d’une fonction-
nalité de Carte Augmentée et lorsque la cible des augmentations numé-
riques est l’environnement lui-même, nous parlons alors d’une fonctionnalité
de Territoire Augmenté.

5 Les systèmes d’information géographique pour la na-


vigation maritime
Les systèmes d’information géographique pour l’aide à la navigation maritime, autrement
appelé systèmes de navigation maritime, en raison de leur caractère embarqué, nécessitent
la mise en place d’architectures spécifiques à commencer par la gestion des données issues
des capteurs embarqués. L’architecture générique est présentée en Figure 3.17. Le système
regroupe toutes les informations extraites de l’environnement par les capteurs embarqués
pour les situer spatialement et temporellement dans une base de données cartographique.

Environnement

Capteur Capteur Capteur

Outil de Na-
Cartographie
vigation

Utilisateur

Figure 3.17: Architecture globale d’un système embarqué d’aide à la navigation.

Les mesures des capteurs embarqués sont saisies en “temps réel”. Il existe deux grands types
de capteurs. D’une part les capteurs proprioceptifs et d’autre part les capteurs extéroceptifs.
Les capteurs proprioceptifs ont la tâche d’extraire par exemple la position de son propre
bateau qui est le plus souvent maintenue par un ou plusieurs capteurs GPS. De nombreuses
autres données sont collectées comme par exemple le cap, sa propre vitesse, le roulis, le
tangage, etc. Les capteurs extéroceptifs permettent au système d’obtenir des informations
sur l’environnement plus ou moins proche du navire. Ces capteurs sont par exemple ca-
pables d’obtenir la position géographique d’autres navires, de connaître la température, les
courants, la profondeur ou encore la vitesse du vent. Des fonctionnalités du système de
navigation permettent d’enregistrer les données des capteurs au court du déplacement du
bateau et certains filtres sont utilisés afin d’éliminer les incohérences dans le traitement des
données reçues.

84
Chapitre 3. Les Systèmes d’Information Géographique Les SIG pour la Navigation Maritime

S’ils font encore débat face aux traditionnelles cartes papier, l’adoption par le comité de la
sécurité maritime de l’Organisation Maritime Internationnale (OMI) des amendements in-
troduisant la prescription d’emport obligatoire de système électronique de cartographie sur
tous les navires effectuant des voyages internationaux confirme cet intérêt (Programme PR
NF EN 62376 (2011)). Il existe de nombreuses sociétés positionnées sur le marché du logiciel
de navigation maritime embarqué séparées en deux catégories. Une première partie contient
celles qui développent une application permettant de tirer profit des capteurs embarqués
(radar, sondeur, GPS, etc) comme Rose Point, éditrice du logiciel Coastal Explorer (2009)
(Figure 3.18d) ou MaxSea (2011), éditrice du logiciel MaxSea TimeZero (Figure 3.18b).
D’autres sociétés proposent des plateformes matérielles en plus de leurs applications logi-
cielles comme Furuno (2009) (Figure 3.18c) ou Garmin (2009) (Figure 3.18a).

(a) Plateforme matérielle et logicielle proposée (b) Plateforme logicielle proposée par MaxSea
par Garmin (2009). (2011).

(c) Plateforme matérielle et logicielle proposée (d) Plateforme logicielle proposée par Coastal
par Furuno (2009). Explorer (2009).

Figure 3.18: Différentes plateformes matérielles et logicielles d’application d’aide à la na-


vigation maritime.

Ces environnements permettent d’améliorer grandement la navigation en ne montrant que


l’information nécessaire, par exemple en fusionnant les photographies satellites de la terre
et la cartographie maritime comme la PhotoFusion en Figure 3.19 proposée par MaxSea
(2011).

85
Les SIG pour la Navigation Maritime Chapitre 3. Les Systèmes d’Information Géographique

Figure 3.19: Illustration de la technique de PhotoFusion de MaxSea (2011).

5.1 Principe
Bien qu’ils mettent en œuvre les mêmes composants que ceux que nous avons présentés
en Section 2, les systèmes d’information géographique maritimes ont cependant quelques
spécificités que nous proposons de présenter maintenant.

5.1.1 Communications

Dans le domaine maritime, les communications se doivent d’être supportées par des tech-
nologies sans fil acceptant les grandes distances. On trouve donc globalement les commu-
nications par satellite et par radio haute fréquence. Ces vecteurs de communication sont
utilisés pour transporter différents types de données comme les appels vocaux, mais aussi
des données météo pour la mise à jour du système d’information ou encore des données
provenant d’autres navires comme leur position et leur cap par exemple.

5.1.2 Affichage

C’est l’élément principal du système d’information géographique. Une des particularités


d’un système d’information géographique maritime est le fait que l’affichage de la carto-
graphie est mis à jour en “temps réel” suivant la position du navire. La cartographie est
extraite d’une base de données locale. Bien que l’utilisateur ait la liberté de parcourir la
cartographie comme il le souhaite, une fonctionnalité de centrage automatique de la car-
tographie autour du mobile est toujours proposée. Chaque objet dispose de deux types de
représentation. La première concerne l’affichage cartographique, sous forme de symbole et
la deuxième correspond à un affichage textuel. Ce composant d’affichage propose à la fois le
point d’entrée et le point de sortie de l’interaction entre l’utilisateur et le logiciel. En effet,
outre la consultation des données qui est permise à l’utilisateur, ce dernier utilise aussi des
outils de sélection ou de création afin d’éditer ou de créer son propre contenu. L’utilisateur
peut être amené à créer dans le système d’information géographique des points particuliers,
des zones de différentes tailles et de différentes formes, d’ajouter du texte, des images, etc.
Les objets ajoutés par l’utilisateur sont enregistrés dans une base de données “utilisateur”.

86
Chapitre 3. Les Systèmes d’Information Géographique Les SIG pour la Navigation Maritime

5.1.3 Base de données cartographique

La base de données cartographique est ce qui alimente l’affichage de la cartographie. Le


caractère embarqué de ces systèmes et la contrainte “temps réel” de mise à jour en fonction
de la position du navire obligent les éditeurs à créer des formats dont le volume sur le disque
est limité et pour lesquels les prétraitements nécessaires sont déjà effectués. Selon l’échelle
choisie par l’utilisateur, différentes techniques sont utilisées afin d’afficher la cartographie à
l’échelle correspondante, par exemple la structure de données QuadTree 8 .

5.1.4 Base de données utilisateur

C’est la base de données personnelle de(s) l’utilisateur(s). Outre les paramètres et réglages
que l’on trouve traditionnellement dans un logiciel, cette base de données permet d’enre-
gistrer les différentes routes que l’utilisateur a empruntées, mais aussi celles qu’il a prévu
d’emprunter. Sont enregistrés dans cette base de données tous les points particuliers que
l’utilisateur renseigne, les zones, etc.

5.1.5 Particularité

Comme le précise Golhen (1996), un système de navigation, ne vise pas à juxtaposer diffé-
rentes technologies (graphisme, base de données, gestion en entre/sortie de capteurs), mais
à intégrer un ensemble de données non cohérentes au départ, en un système d’informations,
modélisant le métier de l’utilisateur. C’est en cela qu’un système d’information géographique
maritme est différent des systèmes d’information géographique les plus courants. À la diffé-
rence d’un système d’information, le système d’information géographique maritime permet
de regrouper les données de cartographie, de position, de météo, de courant, de marée,
de livre des feux et d’image radar afin d’offrir un outil cohérent est centraliser toutes les
données utiles à la navigation.

5.2 Utilisation de la réalité augmentée

Il n’existe que très peu d’applications du domaine maritime utilisant la réalité augmentée.
Nous pouvons cependant citer l’application “Ship Ahoy !” de (PinkFroot, 2010). C’est une
application mobile qui récupère les cibles AIS 9 depuis un site internet spécialisé et affiche
ces données en basant le recalage entre informations textuelles et environnement réel sur
la position GPS et le magnétomètre du terminal. Les données du site internet n’étant
mises à jour et déployées qu’une fois par heure environ, l’application est donc difficilement
fonctionnelle et de plus uniquement disponible à proximité d’une borne wifi donc inutilisable
en pleine mer. C’est un cas de réalité à compréhension augmentée.

8. Un quadtree est une structure de données de type arbre dans laquelle chaque nœud peut compter
jusqu’à quatre fils (Wikipedia).
9. Système d’échanges automatisés de messages entre navires.

87
Les SIG pour la Navigation Maritime Chapitre 3. Les Systèmes d’Information Géographique

(a) Une scène maritime augmentée par des in- (b) Un navire augmenté de ces informations AIS.
formations AIS spécifiques aux différents navires
environnants.

Figure 3.20: Une scène maritime augmentée par des informations AIS d’un navire. Cas de
compréhension augmentée.

Une des rares utilisations de la réalité augmentée en compétition maritime a été faite en
2010 par James Spithill 10 lors de la Course de l’América 11 . Ce dernier utilisait un
dispositif de “réalité documentée” (voir Chapitre 2, Section 2.5.1). Les informations, comme
la position de certains concurrents, étaient affichées sur des lunettes que portait James
Spithill, lunettes reliées à un ordinateur que le coureur portait dans un sac à dos.
Enfin, on peut citer les travaux de la société “Technologie Systems Inc.” qui propose une
application utilisant la réalité augmentée pour l’aide à la planification de missions. Un
exemple d’augmentation proposé par Benton et al. (2008) est visible en Figure 3.21. C’est
un cas de réalité à compréhension augmentée combinée avec de la visibilité augmentée.

Figure 3.21: Réalité augmentée pour l’aide à la navigation maritime. Réalité à compré-
hension augmentée combinée à de la visibilité augmentée.

10. [Link]
11. [Link]

88
Chapitre 3. Les Systèmes d’Information Géographique Les SIG pour la Navigation Maritime

5.3 Les difficultés rencontrées


Nous avons donc identifié deux sources potentielles pour les problèmes de navigation. Nous
rappelons en effet que l’utilisateur rencontre des problèmes liés à son environnement
naturel et à l’outil d’aide lui-même. Les symptômes des problèmes de navigation sont de
deux ordes. Premièrement, il s’agit des difficultés à garder la connaissance de sa position et
de son orientation par rapport aux autres objets de l’environnement lors de déplacements.
Deuxièmement, il s’agit de la difficulté à consacrer beaucoup de temps et d’attention à la
disposition spatiale de l’environnement au détriment de la tâche qu’il faut accomplir. C’est
en effet ce que précise Wang (2004) concernant le fait que ces symptômes sont présents
indifféremment en environnement réel ou en environnement virtuel et cette distinction en
deux types de symptômes représente très bien le caractère à la fois local et global de
la tâche de navigation. Par exemple, lors de la navigation maritime, il s’agit de connaître
sa position et son orientation dans l’environnement alors que le navire bouge (global) en
suivant une route déterminée à l’avance (local). Cependant, lors de l’utilisation spécifique
d’outil d’aide à la navigation maritime, nous pouvons détailler un peu plus les difficultés
rencontrées, les erreurs, leurs sources et leurs causes.

5.3.1 Les erreurs


Il y a un grand nombre d’erreurs potentielles pendant une navigation maritime. Nous avons
choisi de nous appuyer dans ce mémoire sur l’étude menée par Jie et Xian-Zhong (2008)
qui a consisté à identifier la chaine d’erreurs lors de l’utilisation d’un système d’affichage
de carte électronique, donc d’un système d’information géographique. Les différents types
d’erreurs possibles sont :
1. Les erreurs humaines ;
2. Les erreurs de l’équipement ;
3. Les erreurs de procédure ou de management.
Pour chaque type d’erreurs, Jie et Xian-Zhong (2008) ont identifié différentes causes que
nous proposons d’énumérer dans les trois sections suivantes.

Les erreurs humaines


Diminution des compétences : le stress ou la fatigue peuvent par exemple entraîner les
utilisateurs à être moins attentifs ;
Manque de connaissances, compétences ou expérience : à cause d’un mode sélec-
tionné inapproprié ou d’une information mal interprétée ;
Mauvaise gestion : par l’oubli de la vérification des erreurs ou la non-prise en compte
des pannes du système ;
Mauvaise perception : causée par une perte d’attention ou une charge de travail trop
importante ;

Les erreurs de l’équipement


Différents systèmes géodésiques : le fait que les systèmes de cartographie utilisent dif-
férents systèmes géodésiques 12 est une source de problème importante concernant le
calcul des positions des autres navires par exemple ;
12. Un système géodésique est un système de référence permettant d’exprimer les positions au voisinage
de la surface de la Terre selon Wikipedia.

89
Les SIG pour la Navigation Maritime Chapitre 3. Les Systèmes d’Information Géographique

Imprécision de la position : le GPS peut dans certains cas (mer agitée, occultation de
satellite, etc.) ne pas être suffisamment précis ;
Données cartographiques erronées ou obsolètes : la mise à jour des données carto-
graphiques est souvent coûteuse et nécessite parfois une connexion internet difficile à
obtenir sur les navires ;
Erreurs de conception : une ergonomie pauvre et une des erreurs majeures dans cette
catégorie. Jie et Xian-Zhong (2008) expliquent que ces logiciels devraient prendre en
compte le fait que les capacités des navigateurs ont tendance à être affaiblies par leur
charge de travail mentale sous la pression de l’environnement de navigation ;
Problèmes matériels ou logiciels : le logiciel n’est pas exempt de bug et le matériel
de problème électronique. L’alimentation étant parfois instable sur un navire, une
coupure peut rendre l’équipement inutilisable ;

Les erreurs de procédure ou de management


Incapacité à suivre une procédure standard : l’environnement ou les compétences
du personnel ne permettent pas de suivre les procédures ;
Ignorance des incapacités individuelles : lors de certaines procédures, le fait que les
donneurs d’ordre ne connaissent pas les incapacités de certaines personnes peut en-
traîner des complications ;
Enfin, d’autres causes d’erreurs peuvent survenir comme une surveillance de la position
imprécise ou pas assez fréquente, la prévision de passage inadéquate, l’entrée de données
imprécises, une mauvaise configuration du système ou le manque de manuel d’utilisation.
Jie et Xian-Zhong (2008) soulignent que la deuxième cause d’erreur humaine (la première
étant la fatigue, le stress, etc.) est le manque de connaissance et d’expérience qui mène
à des utilisations inappropriées du système d’information géographique (mode d’affichage,
échelle ou date inappropriée) ou à une mauvaise interprétation des informations (position,
profondeur, etc.).

5.4 Hypothèse
Bien que de nombreuses causes de défaillance existent comme nous venons de le présenter,
de notre point de vue, ce problème des systèmes de navigation traduit principalement
une défaillance dans la conception du système, à savoir la mauvaise prise en compte en
amont du processus de conception de la réalité des situations dans lesquelles évolue le
marin en rapport à la difficulté d’interprétation des situations réelles par l’intermédiaire
d’un outil symbolisant cet environnement. C’est avec cet objectif que nous avons décidé de
nous rapprocher de la Société Nationale de Sauvetage en Mer (SNSM). En rapport à notre
problématique présentée en Chapitre 1 : Introduction Générale, nous cherchons à réduire
l’écart entre les représentations de la cartographie et ce que l’utilisateur percoit de son
environnement naturel. Nous faisons l’hypothèse que la mise à disposition d’information
à la fois issues d’une approche globale et locale de la tâche de navigation dans un seul
cannal devrait limiter les erreurs liées à la mauvaise interprétation des différences entre
l’environnement réel et l’outil d’aide à la navigation.

90
Chapitre 3. Les Systèmes d’Information Géographique Conclusion

6 Conclusion
La miniaturisation et l’évolution des composants informatiques permettent maintenant
d’utiliser les systèmes d’information géographique en situation de mobilité. Cette situa-
tion, en plus de proposer un contexte d’utilisation riche, peut interférer sur l’utilisation
du système lui-même comme le précise Calvary et al. (2003). Si peu d’études ont été réa-
lisées sur la dangerosité de l’utilisation d’un tel système en situation de mobilité dans le
domaine maritime, ce n’est pas le cas pour le domaine automobile. En effet, une étude
britannique menée par la compagnie d’assurance Privilege Insurance sur un échantillon de
plus de deux mille personnes révèle que 19% des conducteurs sont déconcentrés en lisant
des informations sur un système de navigation GPS. Une autre compagnie d’assurance bri-
tannique, Direct Line, révèle que ces systèmes ont déjà été la source d’accidents ou au
moins de grosses frayeurs au volant pour 2% des conducteurs, soit plus de 290 000 per-
sonnes au Royaume-Uni. Lorsque l’on sait que la tâche principale sur un navire est dédiée
à la veille de l’environnement, il n’est pas vain de vouloir transposer les problèmes rencon-
trés en automobile dans le monde maritime à défaut d’avoir des chiffres pour ce domaine.
L’utilisation d’un tel système en situation oblige, entre autres, les utilisateurs à quitter leur
environnement des yeux et à analyser les informations proposées par le système pour les
faire correspondre aux informations de l’environnement naturel. Par l’utilisation combinée
de la réalité augmentée et des systèmes d’information géographique, nous cherchons à “ré-
duire l’écart” entre l’environnement réel et les données numériques symbolisées du système
d’information géographique. Ces systèmes proposent donc un champ d’action vaste pour la
réalité augmentée. Cependant, dans le cadre du développement de logiciels professionels à
échelle industrielle, l’utilisation de la réalité augmentée reste encore marginale. De ce fait, le
manque de méthode visant l’aide à la conception de ce type d’application pour des équipes
de développement utilisant par exemple l’extreme programming est un frein à l’utilisation
des technologies comme la réalité augmentée. C’est dans l’objectif de répondre à ce manque
que nous proposons, dans le chapitre suivant, une méthode permettant de lier la modéli-
sation des tâches issue de l’activité des futurs utilisateurs au développement logiciel d’un
système d’information géographique utilisant la réalité augmentée. Nous présenterons donc
dans le Chapitre 4 : Conception d’un SIG Augmenté pour la Navigation le sauvetage en mer
et plus particulièrement le rôle de la SNSM avant de présenter une nouvelle méthodologie
de conception que nous avons ensuite mis en œuvre.

91
Chapitre 4

Conception d’un Système


d’Information Géographique
Augmenté pour la Navigation
Maritime

Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2 La méthode “Scrum” . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4 La sécurité maritime . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5 Mise en œuvre de la méthodologie . . . . . . . . . . . . . . . . . . 103
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

Résumé

La prise en compte de l’ergonomie, aussi employée dans le domaine de l’informatique, vise


à proposer les meilleures solutions pour aider le ou les individus dans leurs actions, quelles
soient cognitives ou sensorimotrices. Cet objectif passe par la modélisation du comporte-
ment et des actions d’un individu dans l’environnement étudié. De nombreuses approches
ont été proposées et il s’avère que l’analyse de l’activité humaine sous forme de “tâches”
semble la plus courante. Parallèlement, du point de vue du génie logiciel, de nombreuses
méthodes ont été proposées pour la gestion de projet informatique de petite et moyenne
envergure comme les méthodes dites “agiles” décrites précisément dans le manifeste co-écrit
par dix-sept auteurs (Beck et al. (2001)). C’est justement ce type de méthode qui a été
choisi chez MaxSea pour l’organisation du développement des nouveaux logiciels. Dans ce
contexte, nous proposons une méthode permettant de faire le lien entre la modélisation
par “tâches” des actions d’un individu et la description de futures fonctionnalités logicielles
servant de point d’entrée à la méthode agile la plus pratiquée, nommée “Scrum”. Pour illus-
trer notre méthode, après une présentation rapide de la méthode “Scrum”, nous présentons
un cas pratique de conception d’un système d’information géographique pour l’aide à la
navigation pour lequel nous nous sommes rapprochés de la Société Nationale de Sauvetage
en Mer (SNSM).
Introduction Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

1 Introduction
Notre modèle 3i2RA proposé dans le Chapitre 2 nous a permis d’identifier les implications
de l’interfaçage d’un individu avec un système utilisant la réalité augmentée. Cependant,
fort de nos connaissances sur les systèmes d’information géographique présentés dans le
Chapitre 3, il reste nécessaire de spécifier les besoins des utilisateurs afin de déterminer
les fonctionnalités à mettre en œuvre pour l’aider dans une situation de navigation. En
génie informatique, la programmation orientée objet à permis la mise en place de mé-
thodes pour l’analyse et la conception par objet. Cette analyse est soutenue par le langage
UML. Depuis la description des cas d’utilisation jusqu’aux diagrammes de séquences, les
outils UML permettent d’obtenir une vue claire de l’architecture logicielle aux différentes
échelles. Cependant, comme le précise Caffiau et al. (2010), le caractère trop spécifique au
développement informatique des diagrammes UML amène certains chercheurs à proposer
des approches plutôt basées sur une modélisation des tâches des utilisateurs que sur une
analyse par objet. Initiallement développée par des ergonomes, cette approche, qui vise la
prise en compte précoce de l’activité des utilisateurs est au final pertinente pour capturer
les spécifications de besoins d’un logiciel. Cependant, à l’image des années nécessaires à la
mise en place d’outils spécifiques pour l’adoption de la modélisation UML, la modélisation
des tâches est actuellement soumise au même problème. Malgré celà, elle est de plus en plus
utilisée dans le domaine de l’informatique et d’autant plus pour la conception de systèmes
interactifs (Shneiderman et Plaisant (2004)). Dans ce contexte, de nombreux outils basés
sur les “tâches” ont été proposés permettant de modéliser l’activité d’un ou de plusieurs
individus.
Parallèlement, du point de vue du génie logiciel, les intérêts de l’utilisation des méthodes
agiles liés aux projets de développement en informatique et plus particulièrement pour le
développement de systèmes interactifs ne sont plus à démontrer (Beck et al. (2001); Petit
et al. (2007)). D’après une enquête nationale sur les méthodes agiles datant de juin 2009
(Group (2009)), 86% des entreprises sondées ont fait le choix d’utiliser la méthode “Scrum”.
Cependant, si l’approche “Scrum” se veut plus pragmatique que les méthodes traditionnelles,
comment faire le lien entre la modélisation de l’activité des utilisateurs et la méthode de
développement agile ? Nous commencerons donc par présenter très rapidement “scrum” ainsi
que son point faible pour lequel nous proposerons de modifier la méthode de conception
proposée par Sebillotte (1994) afin qu’elle s’intégre dans un processus de développement
“scrum”. Nous présentons ensuite la mise en application de notre méthode.

2 La méthode “Scrum”
La méthode “scrum” est une méthode agile dédiée à la gestion de projet. L’utilisation
du terme “scrum” (mêlée au rugby) a été proposée pour la première fois par Takeuchi et
Nonaka (1986). Essentiellement utilisée pour la gestion de projet informatique 1 , la méthode
peut théoriquement s’appliquer à n’importe quel contexte dès lors qu’il s’agit d’un travail
d’équipe (organisation de mariage, planification d’évènement, etc.).

2.1 Grands principes


L’approche proposée dans la méthode “scrum” se base sur quatre piliers. Le premier met en
avant que les individus et les interactions entre eux sont plus important que les processus
1. 32% des entreprises utilisant la méthode “scrum” sondées en 2009 sont dans le secteur d’activité de
l’information et de la communication.

94
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation La méthode “Scrum”

et les outils. Le second vise un logiciel qui fonctionne par opposition à une documentation
souvent éloignée de la réalité. Le troisième permet une meilleure prise en compte du
client dans les différentes phases. Il s’agit de mettre l’accent sur la collaboration plutôt
que sur le contrat. Enfin, le dernier met en avant la réponse au changement dans le but
d’augmenter la réactivité des équipes face au suivi d’un plan.

Figure 4.1: L’organisation pratique des équipes proposée par la méthode “scrum”.

2.2 Organisation

L’organisation de la méthode, illustrée en Figure 4.1, nécessite un directeur de produit ou


“product owner” (PO) et un “scrum master” (SM) pour gérer l’équipe. Le PO, s’assure que
le travail qui doit être fait par l’équipe apporte un intérêt pour les utilisateurs finaux. Aubry
(2010) précise que le PO est responsable de la définition du contenu du produit et de la
gestion des priorités pour son développement. Il s’appuie sur les retours des clients pour pro-
poser les futurs développements, qu’il s’agisse d’amélioration de fonctionnalités existantes
ou de création de nouvelles fonctionnalités. En pratique, le PO identifie les fonctionnalités
requises et les collecte dans une liste, appelée le “backlog”. Un exemple de “backlog” est
proposé dans le Tableau 4.1.

95
La méthode “Scrum” Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

ID Priorité (0 à 1000) État Titre Effort


65365 90 Actif Renommer des items 0
65426 650 Soumis Ajouter une langue 4
76543 0 Fait Ajouter une alarme 1
76493 0 Nouveau Modifier icône 5

Tableau 4.1: Exemple d’un “backlog” dans lequel le PO ajoute les futurs développements.

Le rôle essentiel du SM est de faire progresser collectivement les ressources humaines pour
la réussite du projet. Il n’est pas un chef de projet mais un facilitateur. Il est en charge de
veiller à la mise en application de la méthode “scrum”, d’encourager l’équipe à apprendre et
à progresser, de faire en sorte d’éliminer les obstacles ou encore d’inciter l’équipe à devenir
autonome. Si le SM s’aperçoit qu’il n’est plus indispensable, c’est qu’il a réussi dans sa
tâche.

2.3 Déroulement
Le cycle de développement de la méthode “scrum” est organisé en “sprint”. Un “sprint” est
le terme utilisé dans “scrum” pour itération. C’est un bloc de temps fixé aboutissant à
créer un incrément du produit potentiellement livrable selon Aubry (2010). Cette approche
incrémentale désigne justement le fait que le logiciel s’étoffe à la fin de chaque sprint. Ces
sprints ont tous la même durée et ne sont pas extensibles. À la fin d’un sprint, l’équipe
réalise la revue de sprint. Elle est basée sur une démonstration du logiciel : voici ce qui
fonctionne et ce que l’équipe à développé pendant ce sprint. Cette revue permet de faire
partager la réalisation de l’équipe avec le reste de l’organisation puisqu’un projet est souvent
composé de plusieurs équipes “scrum”.

2.4 Problématique
Nous revenons plus en détails sur le rôle du PO dans cette méthode. Les compétences
souhaitées pour ce rôle sont assez vastes. Il est nécessaire d’avoir une bonne connaissance
du domaine métier, d’avoir l’esprit ouvert ou encore une bonne aptitude à la négociation.
Il s’avère cependant que la méthode “scrum” ne propose rien pour aider ou guider le PO.
En réalité, guidé par l’axe qu’il souhaite donner à son produit, le PO utilise son expérience
et sa connaissance du métier pour proposer de nouvelles fonctionnalités. Cependant, nul
besoin de rappeler par des exemples connus de tous que l’ajout de nouvelles fonctionnalités
nécessite une approche bien spécifique. Cette approche vise à déterminer les besoins réels
des utilisateurs si l’on veut éviter les revers par l’ajout de fonctionnalités qui semblaient
intéressantes, mais finalement jamais utilisées, voire encombrantes. Il est donc nécessaire
d’assister le PO pour identifier les fonctionnalités à ajouter dans le “backlog”. Il s’agit de
cibler la priorité et le contenu (à commencer par le titre) d’une fonctionnalité. L’effort est
une pondération donnée par l’équipe étendue (membre de l’équipe et “scrum master”, le PO
assiste à cette pondération mais ne vote pas) lors de la présentation des items à l’équipe
afin d’évaluer le poids (en terme de développement) de chaque fonctionnalité demandée.
Nous conseillons au lecteur souhaitant obtenir un complément d’information
sur la méthode “scrum” de lire l’excellent guide de Aubry (2010) pour une
définition et une mise en place pratique de la méthode.

96
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Méthodologie

2.5 Proposition

Il nous semble donc important de proposer une méthode pour guider le PO dans la définition
de certaines fonctionnalités auxquelles il n’aurait peut-être pas pensé sans cette méthode.
L’objectif de cette proposition étant de répondre à la question suivante : comment intégrer
une approche ergonomique de modélisation de l’activité humaine pour guider le développe-
ment d’un système d’information géographique d’aide à la navigation innovant en utilisant
une méthode agile ? Pour répondre à cette question, nous proposons de modifier la mé-
thode proposée par Sebillotte (1994). Après la présentation de notre méthodologie dans la
section suivante, nous proposons une présentation rapide de la sécurité dans le domaine
maritime et plus particulièrement de la SNSM afin de mieux cerner le contexte de notre
étude. Pour illustrer notre méthode, nous présentons ensuite un cas pratique de conception
d’une fonctionnalité logicielle dans un système d’information géographique pour la navi-
gation maritime. Cette méthodologie a permis de nous orienter dans le développement de
certaines fonctionnalités que nous présenterons en détail dans le Chapitre 5 : SIGMA : SIG
Maritime Augmenté.

3 Méthodologie

De manière générale, nous nous sommes inspirés de la méthodologie pratique d’analyse de la


tâche en vue de l’extraction de caractéristiques pertinentes pour la conception d’interfaces
proposée par Sebillotte (1994).
Nous proposons de dérouler les deux premières grandes phases de la méthode proposée
par Sebillotte (1994). La première phase correspond au recueil des données utiles à la
description des tâches et la seconde à la formalisation des tâches par l’utilisation d’un
outil analytique de description. La première phase d’analyse se décompose en deux parties
distinctes, mais complémentaires. La première partie consiste à observer directement les
situations réelles rencontrées par les marins (on parle alors de tâches “effectives”) et la
deuxième partie consiste à décrire un ensemble de tâches telles qu’elles sont perçues par les
marins qui les exécutent. Il s’agit d’identifier comment le marin prend les décisions et agit
en fonction de celles-ci. En faisant appel aux souvenirs du marin et à ses propres mots, il
s’agit de mettre l’accent sur la conception que l’individu lui-même se fait de la tâche.

Nous conseillons au lecteur souhaitant obtenir un complément d’information


sur la méthode proposée par Sebillotte (1991, 1994) de lire ces rapports tech-
niques sous forme de documents didactiques illustrant de manière pratique
la méthodologie de conception proposée.

C’est après cette étape que nous divergeons de l’approche de Sebillotte (1994) qui propose
initialement une démarche pour extraire des caractéristiques pertinentes pour l’organisa-
tion d’interfaces graphiques. De notre point de vue, après la modélisation de l’activité par
l’utilisation d’une méthode de description des tâches, nous proposons d’identifier les fonc-
tionnalités nécessaires pour faciliter la complétion des tâches. Le processus de conception
se déroule donc ainsi :

97
La sécurité maritime Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

1. Définition des situations à observer ;


2. Observations et entretiens de ces situations ;
(a) Observations en situation des tâches réelles ;
(b) Verbalisation des tâches par entretiens hors situations ;
3. Analyse de ces observations et des entretiens ;
4. Réalisation d’un modèle par l’utilisation d’une méthode analytique de description des
tâches (MAD) ;
5. Identification des fonctionnalités nécessaires pour faciliter la complétion des tâches
suivant certains facteurs ;
6. Formulation des fonctionnalités comme point d’entrée à la méthode agile de dévelop-
pement ;
7. Développement de la fonctionnalité permettant d’obtenir les informations nécessaires
dans le système d’information géographique en s’appuyant sur les résultats des obser-
vations ;
8. Phase de test basée sur les retours utilisateurs.

Bien qu’ils ne soient pas décrits explicitement, nous avons déduit les quatre premiers points
depuis le document didactique proposé par Sebillotte (1994). Le cinquième et le sixième
point sont particuliers puisqu’ils diffèrent beaucoup de la méthode proposée par Sebillotte
(1994). L’objectif de ces points est de déterminer quelles sont les fonctionnalités qui per-
mettent de faciliter la complétion des tâches. Les facteurs permettant de caractériser la
facilitation des tâches seront par exemple le temps de complétion ou la fréquence d’appari-
tion des tâches.

Avant de présenter un aperçu de la réalisation de notre démarche, nous proposons de préciser


notre contexte d’analyse par la présentation de la sécurité dans le domaine maritime et plus
particulièrement du sauvetage en mer.

4 La sécurité maritime

Il existe trois grands types de navires. Les navires de charge dont l’activité est le transport
de marchandises ou de personnes, les navires de services et d’assistances, dont l’activité est
d’être les auxiliaires des autres navires et les navires professionnels, dont l’activité est la
recherche océanographique ou le câblage par exemple. Concernant les navires de charge, le
graphique en Figure 4.2 montre clairement l’évolution du volume du transport maritime. Les
navires sont toujours plus nombreux, toujours plus gros et souvent, toujours plus rapides.
En effet, la flotte mondiale n’a cessé d’augmenter tant en nombre de navires qu’en tonnage
depuis 1962.

98
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation La sécurité maritime

en millions de tonnes
170

160

150

140

130

120

110

100

1991 1993 1995 1997 1999 2001 2003 2005 2007 2009

Figure 4.2: Échanges maritimes commerciaux mondiaux entre début 1991 et fin 2010.

L’Organisation Maritime Internationnale (OMI), dont l’un des objectifs est d’assurer la
sécurité maritime, a donc mis en place deux conventions internationales nommées SOLAS
(Safety of Live at Sea) et SAR (Search and Rescue). La première convention SOLAS est
adoptée en 1914 (suite à l’accident du RMS Titanic), la deuxième en 1929, la troisième en
1948, la quatrième en 1960 et la dernière en 1974 et est entrée en vigueur le 30 mai 1980.
La convention SOLAS affirme le principe universel du secours en mer. La convention SAR
a quant à elle été adoptée le 27 avril 1979 et est rentrée en vigueur le 22 juin 1985. Elle a
pour objectif la création à l’échelle internationale d’un système assurant la recherche et le
sauvetage en tous lieux et en tout temps. Elle décrit l’organisation et la coordination des
secours, la coopération entre les états et les différentes procédures opérationnelles. Diffé-
rents organismes ont donc été créés à la suite de ces conventions. Ceux qui s’occupent de la
sécurité maritime sont les centres de coordination des secours maritimes ou “Maritime Re-
scue Coordination Center” (MRCC) et le Système Mondial de Détresse en Mer (SMDSM).
Les activités de ces deux organisations sont très larges. Les MRCC assurent une veille per-
manente de leur domaine maritime alors que les SMDSM s’occupent quant à eux de la
partie télécommunication. En France, les MRCC sont les Centres Régionaux Opérationnels
de Surveillance et de Sauvetage (CROSS). Il existe sept CROSS en France. Ces organismes
assurent la conduite des opérations de recherche et de sauvetage dans les zones maritimes.
Ils assurent aussi une veille permanente des appels de détresse, analysent les situations et
définissent une stratégie opérationnelle et engagent et coordonnent les moyens de secours.
Les CROSS assurent aussi la surveillance des pollutions marines, la diffusion de l’informa-
tion nautique et la surveillance de la circulation maritime. Ils sont sous la responsabilité du
Préfet Maritime (Figure 4.3).

99
La sécurité maritime Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

Ministère des
Transports

Préfet Maritime

Préfet de
Maire CROSS
département

Marine Affaires
Gendarmerie Douanes SNSM Autres
Nationale maritimes

Figure 4.3: Hiérarchie de la fonction SAR française.

L’organisme qui prend en charge le plus de sauvetages sur le plan national est la Société
Nationale de Sauvetage en Mer (SNSM). On peut voir la part importante du nombre d’inter-
ventions à l’échelle nationale pour l’année 2010 de la SNSM dans la Figure 4.4 par rapport
aux autres organisations. C’est pour cela que nous avons choisi de nous rapprocher
de cet organisme pour notre analyse des situations rencontrées par les marins.

Nous conseillons au lecteur souhaitant obtenir un complément d’information


de lire la thèse de doctorat de Liechtmaneger (2006). Une synthèse complète
des différents types de navires, le détail de l’historique du sauvetage mari-
time ainsi qu’un tour d’horizon des différentes aides médicales en mer y est
proposé.

100
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation La sécurité maritime

Service départementaux d’incendie et de secours

Marine Nationale

Armateur 11.32% Administration Étrangère


5.32%

17% 4.2% Gendarmerie

3.37% Affaires Maritimes


2.38% Douanes
1.25% Proches
1.14%
1.1% Police-CRS

17.8%

Privé

35.13%

SNSM

Figure 4.4: Répartition des interventions en 2010 publiée par le CROSS.

4.1 Société Nationale de Sauvetage en Mer


Nous avons décidé de nous rapprocher de la SNSM et plus particulièrement de la station
d’Hendaye (64) pour réaliser cette analyse de l’activité des marins pour mieux appréhender
leur utilisation du système d’information géographique. Une station SNSM est la structure
responsable du sauvetage au niveau local. Elle est, le plus souvent, constituée d’un local,
d’un ou plusieurs navires et d’une équipe de sauveteurs bénévoles, appelés historiquement
“canotiers” et dirigés par des marins aguerris, appelés “patrons”.

4.1.1 Rôle
Le rôle de la SNSM est décomposable en trois points distincts :
1. L’assistance aux personnes ;
2. L’assistance aux biens ;
3. La formation (du personnel navigant et administratif, etc.).
Concernant l’assistance aux personnes et aux navires, la station d’Hendaye doit répondre
à tous les appels reçus sur leur numéro d’urgence le plus souvent issue du CROSS d’Etel.
Ils sont donc déclenchés soit :

101
La sécurité maritime Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

– Par le CROSS ;
– Par des marins, plaisanciers, pêcheurs, par téléphone portable ;
– Par des témoins de terre ;
– Par les services espagnols (le “Salvamento Maritimo”), relayés par le SMDSM 2 et soutenue
par la convention SOLAS signée à Hambourg qui précise justement qu’en matière de
sauvetage, il n’y a pas de frontière.

Concernant la formation, les sauveteurs se rendent dans les centres de formation et d’in-
tervention de la SNSM (32 centres en France) pour un recyclage annuel afin d’obtenir par
exemple les accréditations nécessaires aux premiers secours. De plus, deux entraînements
sont réalisés chaque mois dont un de jour et un de nuit pour l’exécution de certaines ma-
nœuvres et l’utilisation du matériel.

L’objectif principal est donc l’assistance et le sauvetage en environnement maritime. « Les


pompiers ont les appels pour n’importe quoi à terre, et nous on nous appelle pour n’importe
quoi en mer » nous a livré un des trois patrons.

4.1.2 Organisation

L’organigramme en Figure 4.5 présente la hiérarchie globale de la SNSM sur le plan natio-
nal. Sous la responsabilité d’un président, la station de sauvetage est composée d’un patron
titulaire et de plusieurs patrons suppléants. C’est le patron titulaire qui est en charge d’as-
surer qu’une équipe de sauveteurs soit capable d’embarquer dans la limite de quinze minutes
après un appel d’urgence. L’organisation des équipes est différente en fonction des stations.
Dans certaines stations, des calendriers sont clairement définis afin que les astreintes soient
équilibrées entre tous les sauveteurs. Dans d’autres stations (celle d’Hendaye par exemple),
les sauveteurs se doivent d’indiquer au patron titulaire s’ils sont disponibles ou non. Lors
d’un appel d’urgence, le patron décide d’embarquer lorsqu’il considère que l’équipe est suf-
fisamment complète pour mener à bien la mission demandée. Bien qu’il soit préférable que
l’équipe soit au complet (6 sauveteurs), dans certaines situations, il s’avère parfois vital de
partir plus rapidement quitte à être moins nombreux.

2. Système Mondial de Détresse et de Sécurité en Mer.

102
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie

Conseil
Président
d’Administration

Secrétaire Général

Direction Inspecteurs Inspecteurs Direction Direction Direction Services


Technique Généraux Nageurs Financière Dév.&Com. Formation Achats
Comptabilité Magazine

Délégués
Départementaux

Stations de Centress de For-


Sauvetages (231) mation et d’inter.
Président Directeur
Patron titulaire Trésorier
Trésorier Formateurs
Canotiers

Figure 4.5: Organigramme de la SNSM sur le plan national.

5 Mise en œuvre de la méthodologie


Nous présentons dans les sections suivantes la mise en œuvre de notre méthodologie présen-
tée en Section 3. L’objectif n’est pas tant de montrer les éléments collectés et la modélisation
qui en découle de manière exhaustive que de montrer notre démarche afin de permettre au
lecteur de l’adapter à sa propre situation.

5.1 Les entretiens


L’objectif des premiers interviews était de déterminer dans quelles situations de naviga-
tion les marins rencontraient les plus grandes difficultés. Il s’agissait aussi de s’entendre
sur les situations dans lesquelles nous ne les gênerions pas. L’interview s’est déroulé par
une première partie libre où les sauveteurs pouvaient parler de leur travail assez générale-
ment. Nous nous sommes ensuite orientés vers un questionnement semi-dirigé afin d’obtenir
suffisamment de précision pour créer les tâches et les sous-tâches. Chaque interview a été
enregistré puis dépouillé. Nous pouvons vous proposer un extrait d’un interview d’un des
patrons dans le Tableau 4.2 et d’un des canotiers dans le Tableau 4.3.

103
Mise en œuvre de la méthodologie Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

Question de l’interviewer Réponses de l’interviewé Données extraites pour la


modélisation
Pouvez-vous m’expliquer
– Mon premier rôle est – Assurer l’état fonctionnel
votre rôle ?
d’avoir une vedette de la vedette ;
en état de fonctionner
24H/24H avec un équi-
page entraîné (qui ne
compte pas ses heures).
C’est la première chose
qui m’est demandée ;
– S’occuper de la forma-
– L’équipage doit être bon
tion de l’équipage ;
partout : en navigation,
en secourisme, utilisation
des engins (zodiac, re-
cherche de personne...)
pour répondre aux dif-
férents appels (incendies,
voie d’eau, etc.) ; – Commander et conduire
– Être capable de “com- le bateau ;
mander” le bateau,
conduire le bateau,
connaitre la mer, les
appareils de navigation,
point de recherche sur
une carte, etc. ;
– Sur le bateau, pouvoir et
savoir utiliser les compé-
tences de chacun en fonc-
tion des interventions ;
– Définir les tâches de cha-
cun en fonction de l’in-
tervention ;
– Former et donner les
compétences pour le jour
de l’intervention. Trans-
mission des compétences
en interne ;

Tableau 4.2: Interview d’un patron de la SNSM.

104
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie

Question de l’interviewer Réponses de l’interviewé Données extraites pour la


modélisation
Pouvez-vous m’expliquer
– Mon premier rôle est
votre rôle ?
d’être le plus rapidement
sur place lorsqu’un des
patrons m’appelle ;
– Mon deuxième rôle est
d’obéir aux patrons lors-
qu’on est en interven-
tion ; – Sortir du quais ;
– Je dois par exemple aider – Guider le barreur ;
à l’embarquement en gui- – Préparer le matériel ;
dant le patron pour sortir
du quai. Je dois préparer
le matériel en fonction de
la mission avec les autres
Quels types d’ordres sauveteurs ;
recevez-vous du patron ? – La plupart du temps,
on sait ce qu’on doit – Préparer moto-pompe ;
faire, mais parfois le pa- – Préparer remorque ;
tron précise. Je dois sor- – Veille ;
tir la moto-pompe, pré-
parer la remorque, sortir
Qu’entendez-vous par le zodiac, me poster pour
“faire de la veille” ? faire de la veille ; – Veille plongeur ;
– Et bien je me positionne – Faire un signe au bar-
à l’avant du bateau, sur reur ;
le côté et je ne quitte – Confirmation du signe ;
pas l’eau des yeux. Dès
que je vois un drapeau
d’un plongeur ou quelque
chose de particulier, je
fais un signe au bar-
reur qui m’indique par
un signe qu’il a compris ;

Tableau 4.3: Interview d’un canôtier de la SNSM.

5.2 Définition des situations


Ces différents entretiens nous ont permis de mettre en exergue quelques situations que nous
avons décidé d’observer plus particulièrement avec les sauveteurs. Nous avons défini diffé-
rents paramètres permettant de caractériser ces situations. Nous avons d’abord déterminé
le contexte global comme l’approche du port ou la navigation. Nous avons aussi défini si la
situation devait être observée de jour ou de nuit. L’état de la mer a aussi été pris en compte.
Un résumé des différentes situations et des paramètres caractéristiques est disponible dans
le Tableau 4.4.

105
Mise en œuvre de la méthodologie Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

Context Jour /
Situation Météo Mer Tâches Remarques
global Nuit
Trouver
Approche
s1 N Dégagée Calme l’entrée du
du port
port
Navigation
Maintenir la
s2 dans un J/N Dégagée Calme
position
couloir
Suivre une
s3 Navigation J/N Brouillard Calme
route
Trouver
Approche
s4 J/N Brouillard Calme l’entrée du
du port
port
iceberg,
Détection
s5 Navigation N Dégagée Calme container,
OFNI
rondins, etc.
Éviter les
s6 Navigation J/N Dégagée Calme rochers
immergés
Identifier la
s7 Navigation J/N Dégagée Calme position des
épaves

Tableau 4.4: Situations de navigation extraites après entretiens.

Nous avons décomposé notre modélisation en respectant l’approche de Sebillotte (1994) se-
lon quatre entités ayant à intervenir durant nos observations. Ces entités sont les suivantes :

Individus : le patron, les sauveteurs, la personne qui déclenche l’alerte, les individus se-
courus, etc. ;

Organisations : les sémaphores, la station locale, le CROSS ;

Machines : VHF, Bipeur, Téléphone, Boston whaler (petit bateau), Bidasoa (vedette), la
moto-pompe, la remorque, le zodiac, la civière, etc. ;

Évènements : alerte téléphone, alerte 149 (bipeur), vedette quitte le port, vedette arrive
sur site, plongeur détecté, bateau en détresse détecté, etc. ;

5.3 Modélisation d’une situation

Nous proposons de présenter les détails de la modélisation de la situation “s2” dont les
caractéristiques sont présentées dans le Tableau 4.4. La navigation à l’intérieur d’un couloir
est une situation très courante. À grande échelle par exemple, des couloirs maritimes sont
définis pour le passage des navires dans les zones de circulations denses. Par exemple, la
Figure 4.6 illustre très bien les deux couloirs de passage des navires dans La Manche.

106
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie

Figure 4.6: Illustration des deux couloirs maritimes pour la circulation des navires entre
l’Angleterre et la France. Image extraite du site internet MarineTraffic (2011).

Voici un exemple d’une interview d’un des patrons concernant cette situation spécifique.
En suivant l’approche de Sebillotte (1994), certaines tâches sont extraites des différentes
réponses.

107
Mise en œuvre de la méthodologie Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

Q : Pouvez-vous me dire en quoi consiste la navigation dans un couloir ?


R : oulà, ce n’est pas évident comme question.
Q : Dites-moi ce qui vous vient à l’esprit, on rangera plus tard s’il le faut.
R : Et bien il faut commencer par savoir où on est, c’est très souvent
comme ça en mer, il faut tout le temps savoir où on est de toute façon.
Il faut ensuite atteindre le couloir . Pour ça je dois vérifier le plus
souvent possible ma position par rapport à la zone autorisée du cou-
loir. Je dois bien sûr faire attention aux autres navires car, dans
ces cas-là il y en a souvent beaucoup. Les descriptions du couloir m’in-
diquent un cap que je dois suivre donc c’est ce que je fais. Il y a deux
choses à contrôler en permanence. La première est la position du bateau,
il faut qu’il reste dans la zone définie par le couloir et la deuxième est le
cap. Il faut tout le temps suivre le cap demandé. Évidemment il faut
surveiller les autres bateaux, mais ça, c’est tout le temps comme ça.
Q : d’accord.
R : En réalité ce n’est pas bien compliqué.
Q : Pourriez-vous me dire plus précisément comment vous vérifiez votre
position ?
R : et bien je regarde le GPS qui m’indique à quelles latitude et
longitude je me situe. Comme j’ai les coordonnées du couloir sur la
carte, je sais que je suis dedans ou pas. En plus sur la cartographie
électronique je vois mon bateau donc s’il est sur le couloir c’est bon. Ce
qu’il faut c’est de maintenir la barre afin de ne pas trop aller un coup à
bâbord un coup à tribord même si le couloir est de toute façon toujours
très très large. C’est le propre des débutants, ils ont du mal à aller droit.
(rires...)
Q : Comment faites-vous pour suivre un cap ?
R : Je me sers principalement du compas mais je le regarde pas souvent.
Q : C’est-à-dire ?
R : Et bien avec l’habitude, je ressens les mouvements du bateau
donc je compense au niveau de la barre lorsque j’ai l’impression qu’on
s’écarte du cap puis de temps en temps je vérifie quand même qu’on ne
se soit pas trop écarté. Mais ça change en fonction des conditions de mer.
Quand elles sont mauvaises, je dois beaucoup plus me concentrer, il faut
éviter les grosses vagues, ralentir ou accélérer en fonction de la vague.
Q : Pourquoi vous devez adapter votre vitesse ?
R : Ben c’est pour éviter de casser le bateau et de trop secouer le ma-
tériel à bord. Je fais ça aussi pour épargner l’équipage. Pour n’importe
qui c’est toujours fatiguant quand ça bouge beaucoup, rien que parce qu’il
faut se tenir. L’année dernière lors d’une intervention sous quatre mettre
de houle et du bon clapot un des sauveteurs est tombé et s’est cassé la
clavicule. Quand ça tape, ça tape !

108
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie

Q : peut-on dire qu’on à fait le tour pour la navigation dans un couloir ?


R : euh dans les grandes lignes oui. C’est quelque chose de très courant
donc je me rends plus trop compte de ce que je fais. Surtout que j’utilise
toujours les mêmes couloirs donc je suis habitué, c’est toujours la même
chose.
Q : d’accord. Comment faites-vous pour sortir du couloir ?
R : bah rien de plus simple, il faut s’assurer qu’en changeant de cap on
ne risque pas de rentrer dans une zone interdite du rail...

5.4 Affinage de la géométrie du modèle

Comme l’indique la méthode de Sebillotte (1994), il est nécessaire d’affiner le modèle au fur
et à mesure de la récolte des données. Après plusieurs discussions, il est apparu quelques
subtilités dans la situation que nous devions observer. En effet, dans certains cas, le naviga-
teur est parfois amené à définir son propre couloir. Après avoir défini un point de départ et
un point d’arrivée sur la cartographie, le navigateur décide du cap à suivre pour rejoindre
le point de départ. Lorsqu’il se trouve au niveau du point de départ, il doit suivre le cap
défini par la droite passant par le point de départ et d’arrivée. S’il ne veut pas dévier de
sa route prévue, il se doit de maintenir le navire dans un couloir englobant la droite liant
le point de départ et d’arrivée. La difficulté réside dans l’estimation du cap à suivre qui
permettra au navire de rejoindre le point d’arrivée en prenant en compte les courants et le
vent. La distance entre le point de départ et le point d’arrivée est dépendante des conditions
météorologiques et de la route à parcourir. Le navigateur répète ainsi l’opération plusieurs
fois au cours d’une même traversée. La phase de définition du couloir peut être réalisée à
terre. Dans le cadre de nos observations, nous considérons que la route à suivre est déjà
planifiée.
Comme le propose la méthode de Sebillotte (1994), il est aussi possible d’utiliser les “traces”
pour affiner le modèle. L’analyse des traces permet de s’assurer que les objectifs des tâches
et les procédures pour atteindre ces objectifs correspondent à la réalisation effective de la
tâche.

5.5 Modèle

Nous présentons, en Figure 4.7, l’arbre des tâches de la situation “s2”. Comme le nécessite
la méthode, nous avons aussi pris en compte le caractère sensorimoteur ou cognitif d’une
tâche, sa fréquence, les préconditions, les postconditions ainsi que les changements sur
l’environnement. Il est difficile de savoir à quel moment exact commence la navigation dans
le couloir. Nous nous sommes référés à la position GPS du navire. Lorsque le navire semblait
être suffisamment proche du point de départ, nous avons considéré que les données récoltées
à partir de ce moment là pouvaient être intégrées aux données de la situation “s2”.
Nous avons maintenant déroulé les deux phases de la méthode de Sebillotte (1994). L’objec-
tif de notre approche étant d’aider le PO dans le choix des fonctionnalités qu’il doit ajouter
à son logiciel, nous proposons de prendre en compte certains facteurs dégagés lors de la
modélisation.

109
110
“s2”.
1.

Naviguer
dans couloir

1.1 1.2 SEQ. 1.3 1.4

Contrôler
Connaître Atteindre Rester dans
autres
Mise en œuvre de la méthodologie

sa position le couloir la zone


navires

1.1.1 SIM. 1.1.2 1.2.2 1.3.1

Vérifier Consulter Suivre le


garder cap
lat. lon. carto. cap du rail

[Link] SIM. [Link]

Ressentir les Vérifier


mouvements son cap

[Link].1 ALT. [Link].3 [Link].1 ALT. [Link].2

Décider Décider de Décider de Décider


d’agir ne pas agir ne pas agir d’agir
CD. : mauvais cap CD. : bon cap CD. : mauvais cap

[Link].1.2 [Link].1.2 [Link].1.1 [Link].1.1 [Link].2.1 [Link].2.2

Consulter Changer Garder le Garder le Changer Consulter


carto. de cap même cap même cap de cap carto.
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

Figure 4.7: Arbre des tâches créé en fonction des entretiens et observations pour la situation
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie

5.6 Facteurs à prendre en compte


Les différents facteurs associés à une tâche et pris en compte pour identifier les fonction-
nalités potentiellement utiles pour les utilisateurs sont rangés en deux groupes. Il y a des
facteurs qui permettent d’aider le PO dans sa sélection d’une fonctionnalité spécifique à la
tâche en question (Groupe A) et le facteur qui va indiquer la façon dont la tâche est gérée
par l’utilisateur (Groupe B) :
– Groupe A :
– La fréquence d’apparition ;
– La nécessité (obligatoire ou optionnelle) ;
– L’importance (très, assez, peu) ;
– La durée de la tâche ;
– Groupe B ;
– La modalité (cognitive ou sensorimotrice).
Le premier paramètre de la modélisation des tâches qui doit être pris en compte pour
guider le PO est la fréquence d’apparition des tâches “feuilles” (les tâches qui ne sont plus
divisibles en sous-tâche) car une petite modification d’une fonctionnalité ou l’ajout d’une
simple fonction aura un impact important si cette fonction est utilisée de manière intensive.
De plus, une fonction trop complexe serait extrêmement pénible à utiliser à cause des
répétitions et souffrirait donc d’une faible acceptabilité de l’utilisateur. Deuxièmement, la
nécessité et l’importance doivent aider le PO à prioriser la fonctionnalité. Pour cela, nous
proposons, basée sur notre expérience, une règle permettant de construire la priorité de la
fonctionnalité. Initialement, cette priorité est donnée par le PO de façon arbitraire. Nous
proposons d’utiliser les caractéristiques de nécessité et d’importance pour définir la priorité
de la tâche par la relation suivante :

P = 1000 ⇥ N ⇥ I
Les valeurs des coefficients de la relation, obtenus de façon empirique, sont définies dans le
Tableau 4.5. Par exemple, une tâche peu importante mais obligatoire générera une fonction-
nalité dont la priorité sera de 300 alors qu’une tâche obligatoire et très importante génèrera
une fonctionnalité de priorité 900. Les coefficients N et I pourront être affinés avec l’expé-
rience du PO si nécessaire mais il s’avère que nous obtenons des résultats cohérents avec
ces valeurs.

Facteur Valeur Coefficient


Obligatoire 0.6
Nécessité (N )
Optionnelle 0.1
Très 1.5
Importance (I) Assez 1
Peu 0.5

Tableau 4.5: Coefficients permettant de définir la règle de calcul de la priorité d’une tâche.

5.7 Démarche du PO
Nous proposons que le PO parcoure l’arbre de modélisation d’une situation en commençant
par les feuilles de l’arbre puisqu’il s’agit des tâches les plus concrètes. Il détermine si ces

111
Mise en œuvre de la méthodologie Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

feuilles sont compatibles avec la direction qu’il souhaite donner à son logiciel. Pour notre
exemple de modélisation de la situation “s2”, le PO trouvera les feuilles suivantes :
– Vérifier lat/lon ;
– Consulter la cartographie ;
– Garder le même cap ;
– Changer de cap ;
– Contrôler la position des autres navires.
Avec l’aide des fréquences d’apparition des tâches comme l’illustre la Figure 4.8, le PO
décide d’ajouter une fonctionnalité associée aux différentes tâches. Comme nous l’avons
déjà précisé en début de ce chapitre, dans le cadre de “scrum”, le PO n’est pas guidé
quant aux choix des fonctionnalités qu’il faut ajouter au logiciel. En utilisant un modèle
de description des tâches comme nous venons de présenter et une aide pour le calcul de la
priorité des fonctionnalités, le PO peut ainsi décrire plus facilement des fonctionnalités qui
auront pour objectif d’aider à l’accomplissement de ces tâches.

Nb. 80

70

60

50

40

30

20

10
p
p

s.
p
n.
ha rto.

v.
ca
ca

ca

po
na
.lo
ca

er
er

ir
at

er
es

en
ng

ifi

ôl
r

tr
te

er
ér

nt

tr
au
ul

fi
V

ai

on
C

i
s

ér

M
er
on

C
V

ôl
C

tr
on
C

Figure 4.8: Fréquences d’apparition des différentes tâches de la situation “s2”.

5.8 Résultats
Le Tableau 4.6 propose l’ajout de trois fonctionnalités dont les priorités ont été calculées
par la relation précédemment présentée. La création du contenu de chaque fonctionnalité
reste à la charge du PO, comme c’est prévu par “scrum”. Cependant, l’intérêt d’avoir mis en
place cette démarche permet au PO de se baser sur un modèle d’activité pour extraire des
fonctionnalités qui visent directement les tâches que doivent réaliser les futurs utilisateurs
de son logiciel.

112
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie

ID Priorité (0 à 1000) État Titre Effort


80006 150 Nouveau Afficher la position des autres navires
80007 300 Nouveau Mettre en valeur les données de cap
80008 50 Nouveau Mettre en valeur les données lat/lon

Tableau 4.6: Proposition d’une liste de fonctionnalités permettant de guider le PO dans


l’ajout des “backlog item”.

Nos observations et nos analyses nous ont amenés à faire quelques constats importants qui
nécessitent la mise en place de solutions techniques adéquates. Nous n’avons pas été en
mesure de répondre à tous les besoins dans le cadre de cette thèse, mais parmi les constats
qui suivent, ceux qui n’ont pas été traités laissent apparaître des perspectives à ces travaux
de thèse.
Nous avons constaté que les marins ont acquis un sens de l’observation panoramique excep-
tionnel à cause d’une perpétuelle hantise : la collision avec d’autres navires. Les technologies
déjà à bord sont inutiles dans certaines situations (le radar est très bruité dans les zones
assez proches du navire ou lors de mauvaises conditions météorologiques et tous les navires
ne disposent pas d’AIS permettant de connaître leurs positions) ce qui implique que les
marins ne peuvent pas leur faire totalement confiance. Cette tâche de “Surveillance des en-
virons” est réalisée en parallèle de toutes les autres tâches et nécessite une attention toute
particulière, menant parfois les marins à opérer à plusieurs en même temps. Sans présup-
poser de solutions techniques à ce stade de l’analyse, nous serons certainement amenés à
prendre en compte des technologies offrant un très grand champ de vision des informa-
tions (caméra grand-angle ou multicaméras par exemple) concernant les capteurs et nous
serons confrontés à des contraintes fortes pour l’utilisation d’équipement porté (casques ou
lunettes de réalité augmentée) dont les propriétés ne permettent pas d’obtenir un champ
de vision suffisamment important.
Les navigateurs doivent évaluer la profondeur des fonds de l’eau. C’est une tâche que nous
avons nommée “Évaluation de la prodonfeur”. La couleur de l’eau, la forme des vagues, les
informations du sondeur lorsqu’elles sont disponibles, croisées avec la cartographie et leur
connaissance de l’endroit permettent aux navigateurs d’évaluer la profondeur des fonds et
ainsi déterminer si le passage est possible en fonction de leur embarcation. Cette tâche est
extrêmement coûteuse puisqu’elle est réalisée en permanence par les navigateurs. Nous ga-
geons que la mise en correspondance spatiale et temporelle permise par la réalité augmentée
entre l’eau et les informations cartographiques de profondeur permettront de faciliter cette
évaluation.
Nous avons aussi observé que l’utilisation de l’outil d’aide à la navigation oblige les naviga-
teurs à quitter des yeux leur environnement pour se concentrer sur l’écran de l’outil ce qui
pose parfois problème à cause du changement de luminosité ou de l’accommodation visuelle.
C’est une problématique que l’on trouve aussi dans l’aviation et dans le domaine automo-
bile et pour laquelle les constructeurs proposent des dispositifs d’affichage “tête-haute”. Pour
contrer ce problème, les navigateurs ont défini une procédure nécessitant deux marins dont
l’un est affecté à l’utilisation de l’outil et l’autre au pilotage proprement dit. Nous gageons
que les technologies de la réalité augmentée, par des systèmes de projection par exemple ou
les solutions sonores spatialisées 3 pourront, dans certaines situations, permettre au pilote
d’obtenir les informations nécessaires sans quitter son environnement des yeux.

3. L’utilisation de la multimodalité est une des pistes non explorées dans ces travaux de thèse.

113
Mise en œuvre de la méthodologie Chapitre 4. Conception d’un SIG Augmenté pour la Navigation

Nous avons aussi remarqué que les marins se positionnent sur le navire afin de couvrir la
plus grande surface de surveillance autour d’eux. Cette opération est réalisée naturellement
par les marins. La position des marins sur le navire étant connue par chacun car la taille
de l’embarcation le permet, un marin peut “délaisser” une zone en sachant qu’un autre est
mieux placé sur le navire pour réaliser la surveillance de cette zone.

5.9 Caractère non systémique


Si on perçoit une certaine “lourdeur” dans l’application de la méthode, il faut préciser qu’elle
n’est pas nécessairement systémique. Ayant pour cadre d’application la phase amont de la
méthode “scrum”, notre méthode n’est cependant pas nécessaire pour l’ajout de chaque
fonctionnalité. En effet, dans certains cas, des fonctionnalités se doivent d’être présentes
pour la réussite commerciale du logiciel même si elles ne sont finalement pas les plus opti-
misées (voire supperflues) pour les actions qu’elles visent. Par exemple, Po et al. (2005) a
remarqué que l’orientation et la forme du pointeur de la souris influencent les performances
de pointage des utilisateurs dans certaines actions. Pourtant, notre pointeur de souris est
toujours orienté de la même manière !

114
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Conclusion

6 Conclusion
Après une brève présentation de la méthode agile “scrum”, nous avons identifié un problème
lié à son utilisation, à savoir le manque d’outil et de méthode visant à guider le responsable
produit pour les choix de développement qu’il doit faire pour son futur logiciel. Après la
présentation du sauvetage en mer comme contexte de notre étude, nous proposons une
démarche visant à guider le responsable produit (PO) afin de dégager des fonctionnalités
utiles pour l’aide à la complétion des tâches des utilisateurs après avoir modélisé l’activité
de ces derniers. Basée sur la méthode proposée par Sebillotte (1994), cette approche permet
de mettre en relation la modélisation de l’activité des individus sous forme de tâches avec
une méthode agile de développement. Cette approche a l’avantage de s’intégrer dans la
démarche de réalisation d’un outil logiciel même en cours de développement.
Notre méthode nécessite encore d’être affinée afin de répondre plus précisément aux besoins
du PO en terme de guidage pour de nouvelles fonctionnalités. Par exemple, un formalisme
pourrait être défini par une analyse sémantique des termes employés pour définir une tâche
afin d’en extraire une fonctionnalité.
La spécification des fonctionnalités étant cadrée par la méthode que nous venons de propo-
ser, il est maintenant nécessaire de présenter les différents composants logiciels permettant
de mettre en œuvre les fonctionnalités identifiées par notre méthode.

115
Chapitre 5

SIGMA : Système d’Information


Géographique Maritime
Augmenté

Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

2 Présentation générale . . . . . . . . . . . . . . . . . . . . . . . . . . 118

3 Architecture matérielle générale . . . . . . . . . . . . . . . . . . . 119

4 Architecture logicielle . . . . . . . . . . . . . . . . . . . . . . . . . 121

5 Méthode générique de calcul . . . . . . . . . . . . . . . . . . . . . 129

6 Le meilleur des deux mondes : méthode hybride . . . . . . . . . . 140

7 Une application : la détection de cible . . . . . . . . . . . . . . . . 149

8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

Résumé

Nous allons présenter dans ce chapitre l’architecture logicielle basée sur trois compo-
sants principaux et l’architecture matérielle de notre Système d’Information Géographique
Maritime Augmenté, SIGMA. Le premier composant fournit les services nécessaires aux
connexions du système d’information géographique avec tous types de caméra vidéo. Le
deuxième composant s’occupe de la création d’un espace mixte en utilisant la vidéo fournie
par le composant précédent et les données numériques géoréférencées du système d’informa-
tion géographique. Enfin, le troisième composant permet d’enregistrer et de rejouer toutes
les données numériques synchronisées avec la vidéo. Nous présentons aussi notre démarche
basée sur des tests unitaires pour l’implémentation d’une fonctionnalité jugée critique ainsi
que nos critères de choix pour certains matériels et technologies. Pour plus de détails sur
les systèmes d’informations géographiques dédiés au domaine maritime, vous pouvez vous
rendre en Section 5 du Chapitre 3.
Introduction Chapitre 5. SIGMA : SIG Maritime Augmenté

1 Introduction
L’objectif de ce chapitre est de présenter les bases techniques de SIGMA. Les fonctionnalités
développées et présentées dans ce chapitre ont été identifiées lors de la mise en application
de la méthode proposée dans le Chapitre 4. Nous allons présenter plus particulièrement
trois composants logiciels qui constituent SIGMA. Ces composants sont eux-mêmes basés
sur des composants du système d’information géographique que nous présenterons moins
en détail. Nous utiliserons la modélisation UML concernant les diagrammes de composant
et les diagrammes de classe en annexes.
Dans notre contexte, tous nos utilisateurs, qu’ils soient à terre ou en mer doivent avoir le
champ de vision le plus large possible afin de veiller sur leur environnement. Un dispositif qui
limite le champ de vision horizontal est rédhibitoire. Ceci est d’autant plus vrai concernant
plus particulièrement les marins qui doivent conserver la plus grande mobilité puisqu’ils sont
amenés à se déplacer le long d’un navire relativement exigu (ils ne doivent pas être gênés
pour descendre une échelle abrupte par exemple) et sont amenés à porter de lourdes charges.
Enfin, ils sont très certainement amenés à être mouillés ce qui ne faciliterait pas l’intégration
d’un dispositif électronique porté. D’après le tableau proposé par Keller et Colucci (1998),
nos contraintes ne nous permettent pas encore d’utiliser un matériel existant puisque nous
poussons à l’extrême la nécessité d’un champ de vision inaltéré pour un encombrement quasi
inexistant ! Dans ce contexte, SIGMA utilise pour l’instant un affichage déporté même si
sa conception n’interdit pas l’utilisation d’un dispositif porté en vision indirecte 1 ou d’une
solution “projetée” par exemple.

2 Présentation générale
La démarche que nous avons menée et qui a été présentée dans le Chapitre 4 n’avait pas
comme objectif de proposer un nouveau dispositif de restitution des informations. Cepen-
dant, si nous devions utiliser cette expérience pour faire une proposition afin de seconder
le système actuel qui se trouve être un écran d’ordinateur classique, voire le remplacer,
nous proposerions certainement un système de la classe des “Projective Display”. Les in-
formations seraient projetées sur les vitres du navire donnant vers l’extérieur. Certaines
sembleraient recalées avec l’environnement extérieur (réalité à compréhension augmentée :
Figure 2.10a) alors que d’autres ne le seraient pas (réalité documentée : Figure 2.10c). Ce
faisant, les navigateurs pourraient obtenir les informations dont ils ont besoin sans pour
autant quitter leur environnement des yeux. Ce système serait combiné avec un dispositif
mobile communiquant avec l’ordinateur principal afin d’informer le porteur par les données
les plus importantes liées au navire (position, cap, etc.) lorsqu’il n’est pas dans la cabine
de pilotage, mais aussi par des informations sur les autres membres de l’équipage (position
sur le navire, action en court, etc.). Le dispositif portable permettrait aussi de déclencher
certaines actions jusque-là réservées au poste de pilotage.
La proposition et la réalisation de nouvelles interfaces sont cependant remisent à plus tard.
Nous proposons donc un système utilisant le triptyque classique “écran-clavier-souris”. L’in-
terface graphique du système, illustrée en Figure 5.1 est composé de plusieurs espaces.
Ces espaces, représentés par des onglets permettent à l’utilisateur de paramétrer l’interface
en fonction de différentes situations d’utilisation (en mer, à terre, etc.). Chaque espace est
muni d’un ruban sur la gauche de l’écran regroupant tous les outils nécessaires à l’utilisateur

1. Il est en effet important de préciser qu’un dispositif porté peut être soit en vision directe (“optical see-
through”) soit en vision indirecte (“video see-through”). Pour plus d’informations, nous invitons le lecteur
à parcourir la deuxième partie de la thèse de Bottecchia (2010).

118
Chapitre 5. SIGMA : SIG Maritime Augmenté Architecture matérielle générale

pour créer des points, des zones, changer d’échelle, bouger la cartographie, etc. Le ruban
supérieur propose à l’utilisateur des filtres d’affichage des informations. C’est dans ce ruban
que l’utilisateur sélectionne le type de cartographie qu’il désire voir s’afficher par exemple.
Sur la droite, une zone verticale permet à l’utilisateur d’obtenir des informations précises
comme sa propre position, des informations météorologiques ou l’heure par exemple. Le
navire est toujours représenté en rouge.

Figure 5.1: Une vue de l’interface graphique globale du système d’information géogra-
phique.

3 Architecture matérielle générale


La configuration matérielle globale que nous avons utilisée est présentée en Figure 5.2.
Les choix des composants matériels, qui seront présentés plus en détail dans les sections
suivantes, ont été guidés par les conclusions amenées par notre démarche présentée dans
le Chapitre 4, mais aussi par la nature particulière de l’intégration de tels systèmes en
environnement maritime concernant par exemple l’étanchéité, l’isolation ou la résistance
à la corrosion. Le système d’information géographique s’exécute sur un ordinateur. Ce
dernier est connecté par deux liaisons Ethernet indépendantes avec la caméra thermique.
La première liaison permet d’obtenir la vidéo via un convertisseur analogique-numérique
alors que la deuxième liaison permet à l’ordinateur de contrôler la caméra (changement
de mode, changement d’orientation, etc.). Une liaison série permet à l’ordinateur d’obtenir
les données d’attitudes du navire qui sont obtenues depuis un convertisseur NMEA2000 -
NMEA183. Ces données d’attitudes sont mesurées par une centrale inertielle couplée à un
compas satellite. L’intégration de la plateforme matérielle à bord du navire de la SNSM est
illustrée dans les deux images de la Figure 120.

119
Architecture matérielle générale Chapitre 5. SIGMA : SIG Maritime Augmenté

Convertisseur ana-
logique/numérique

Liaison Ethernet
Camera Thermique Liaison série

Convertisseur
NMEA2000
- NMEA183

Laison NMEA

Liaison Haute
fréquence

Satéllite GPS Centrale Inertielle

Figure 5.2: Architecture materielle globale de SIGMA.

(a) On peut voir la caméra à gauche de l’image (b) Intégration du logiciel d’aide à la navigation
ainsi que la centrale inertielle satellitaire à droite de dans la cabine de pilotage du navire.
l’image. Le matériel est fixé sur le mat du bateau.

Figure 5.3: Illustration de l’intégration de la plateforme matérielle.

120
Chapitre 5. SIGMA : SIG Maritime Augmenté Architecture logicielle

4 Architecture logicielle
La configuration logicielle globale qui a été mise en œuvre est illustrée en Figure 5.4. Il
s’agit d’une architecture orientée composant. Nous avons créé trois composants logiciels
ayant chacun des fonctions spécifiques. Le composant VideoCamera s’occupe de fournir
les services de gestion vidéo et du contrôle des caméras de différents types. Le composant
AugmentedReality s’occupe de la réalisation d’un espace de visualisation de la vidéo aug-
mentée d’informations virtuelles extraites du système d’information géographique. Enfin,
un troisième composant a été développé pour réaliser une fonctionnalité d’enregistrement
et de lecture des données de manière synchronisée. Ce composant s’occupe d’enregistrer les
informations issues des capteurs proprioceptifs et extéroceptifs. Ces informations sont par
exemple sa propre position, mais aussi la position et le cap d’autres navires. Ce composant
enregistre aussi la vidéo issue des caméras et dispose d’un mécanisme de synchronisation
entre les données reçues et les images des caméras.
Chaque composant, sauf exception, implémente le patron de conception “Façade” (Gamma
et al. (1994)). Il s’agit de cacher la compléxité du composant en publiant une interface
mettant à disposition des utilisateurs du composant les fonctions et propriétés utiles. De
plus, il s’agit aussi de bien identifier quels objets sont capables de modifier l’état du com-
posant et quels objets sont capables d’informer sur l’état de ce même composant. En ce
sens, l’implémentation du patron “Façade” se fait par la publication de deux interfaces dis-
tinctes. La première interface, dédiée à la modification de l’état du composant (donc de
ses propriétés), prend le suffixe “Script” et la deuxième interface dédiée à la récupération
des objets gérés par le composant prend le suffixe “View”. Pour l’exemple, le composant
VideoCamera publie donc les deux interfaces IVideoCameraView et IVideoCameraScript.
La Figure 5.4 montre aussi les dépendances entre les composants. Le composant Augmen-
tedReality est dépendant du composant VideoCamera, lui-même dépendant du composant
RecorderPlayer. Dans les sections suivantes, nous proposons de détailler l’architecture et les
liens de ces trois composants.

AugmentedReality VideoCamera RecorderPlayer


Transformer «use» IVideoCameraView «use» IRecorderView
RaE3DProvider IVideoCameraScript IRecorderScript

Figure 5.4: Liens entre les trois composants principaux de SIGMA.

Chacun des composants que nous avons développés pour réaliser SIGMA va utiliser certains
composants déjà développés dans le système d’information géographique. Voici les noms et
la description des composants utilisés par les trois composants de SIGMA.
Toolkit : Ce composant intègre tous les types de données utilisés dans le système
d’informations sous forme atomique. Ces classes de type de données permettent de
créer des objets “Speed”, “Distance”, “Angle”, etc. Une fois initialisée, la valeur de la
donnée est “cachée” à l’utilisateur permettant à ce dernier de manipuler des objets de
haut niveau capables de s’additionner, de se multiplier ou de se convertir par exemple,
sans connaître la valeur et donc sans pouvoir la modifier ;

121
Architecture logicielle Chapitre 5. SIGMA : SIG Maritime Augmenté

Mobile : Ce composant fourni les services associés à son propre bateau (“Ownship”)
ainsi que tous les autres objets de type équivalent comme les cibles ARPA, AIS, les
hommes à la mer (MOB), etc. Pour chaque mobile, ce composant est en mesure de
fournir différentes données comme la position géographique dans différents référentiels,
l’angle par rapport à son propre navire, la distance, la vitesse et parfois, lorsqu’il s’agit
d’AIS, le nombre de personnes à bord, le port de destination, etc. ;
GpuEngine : Ce composant est le moteur 3D du système d’information géogra-
phique. Surcouche logicielle de la solution graphique DirectX de Microsoft, il permet
d’être relativement indépendant des changements de version de ce dernier ;
DataSettings : Ce composant intègre une seule et unique classe. Son patron de
conception est de type “singleton”. Tous les composants dépendants de celui-ci ac-
cèdent à la même instance de l’unique classe qui le compose. Cette classe, reliée à une
petite interface graphique, permet de créer et de régler certains paramètres lors du
développement avant d’être définitivement intégrés dans le logiciel ;
Framework : Ce composant fournit les services nécessaires à l’organisation du code.
Il intègre par exemple les fonctionnalités permettant aux différents éléments de l’in-
terface graphique de lever des évènements lorsqu’ils sont modifiés par l’utilisateur sous
forme de commandes. Il permet aussi de lever les évènements sur l’état des éléments
de l’interface (sélectionné ou non par exemple) ;
IOBusiness : Ce composant s’occupe de la gestion des différentes interfaces de
connexion disponibles sur l’ordinateur hôte. Qu’il s’agisse par exemple de port sé-
rie, de port USB ou Ethernet, ce composant permet de gérer et d’administrer ces
ports physiques par lesquels transitent les données reçues des différents capteurs em-
parqués ;
IO : Ce composant, extension du composant IOBusiness, propose les services d’ana-
lyse des phrases reçues sur les ports de la machine hôte afin d’en extraire les données.
C’est aussi à ce niveau que les différentes normes de communication (comme le pro-
tocole NMEA2000 ou NMEA183) sont implémentées ;
Radar : Ce composant fourni la gestion des données issues du radar. Les données
“radar” sont traitées et affichées selon des règles “métier” spécifiques. Il permet, entre
autres, l’acquisition des cibles ARPA.

4.1 Composant VideoCamera


Le composant VideoCamera dépend de six composants comme l’illustre la Figure 5.5.
Chaque constructeur de caméras imposant un protocole de communication spécifique, nous
avons décidé de concevoir une architecture permettant d’ajouter simplement un nouveau
type de caméra par l’implémentation d’une interface ICameraNetwork. Cette implémenta-
tion correspond à la mise en place d’un protocole de communication entre le matériel (la
caméra) et les objets “POCO” 2 . Cette architecture est illustrée en annexe en Figure 6.5.
Pour ajouter un nouveau type de caméra, il suffit d’implémenter l’interface ICameraNetwork
puis de créer un objet qui aura pour objectif d’interroger ce nouveau matériel. Actuellement,
ce composant est capable de gérer les caméras de marque FLIR (2010) et Axis (2011). Ces
données seront ensuite utilisées par ce que nous nommons les “updateurs” pour la création

2. Ces objets sont les plus simples possible et héritent seulement de la classe “Object”. Leurs propriétés
détiennent des accesseurs et des mutateurs et sont aussi très simples. Ces classes ne détiennent aucun code
spécifique et le plus souvent aucune méthode publique.

122
Chapitre 5. SIGMA : SIG Maritime Augmenté Architecture logicielle

d’objets munis seulement de propriétés de type IVideoCameraImage et IVideoCameraCon-


trolable. Les classes qui implémentent ces deux dernières interfaces ne sont pas représentées
dans le diagramme.

Toolkit Mobile GpuEngine


IMobileView ImageData Gen-
IAtomicData
IMobileScript Texture GenMatrix

«use» «use» «use»

VideoCamera
IVideoCameraView
IVideoCameraScript

«use» «use»
«use»

DataSettings Framework IOBusiness


CommandControler PortConfiguration
Instance
MasterCollection StandardAnalyser

Figure 5.5: Architecture logicielle du composant VideoCamera de SIGMA.

Nous avons fait le choix de séparer l’implémentation entre les objets permettant de contrôler
les caméras et les objets permettant d’obtenir les images de ces mêmes caméras. Bien que
cela implique une compléxité supplémentaire au niveau des objets dont le rôle est de mettre
à jour les données (les “updateurs”), cette solution permet d’offrir une souplesse d’utilisation
à la fois au niveau de la couche graphique ainsi que d’un point de vue fonctionnel. En effet, la
conception est ainsi optimisée afin de n’utiliser que les objets nécessaires lorsque les images
d’une caméra sont affichées sur un écran externe et pas dans le système d’information
géographique directement mais qu’il est possible de contrôler la caméra dpuis le système
d’information géographique. Inversement, il devient possible de récupérer les images d’une
caméra qui ne serait pas contrôlable par le système d’information géographique en utilisant
les objets uniquement nécessaires à la connexion vidéo.

4.1.1 Interface graphique


Nous proposons dans la Figure 5.6 quelques exemples de l’interface graphique du système
d’information géographique avec une caméra. Le flux vidéo est positionné dans la barre
latérale (sur la droite) de l’écran (Figure 5.6a et 5.6b). La Figure 5.6b montre le menu
permettant de contrôler la caméra apparaissant par-dessus la vidéo. Un triangle (rouge)
permet à l’utilisateur de connaître l’orientation de la caméra dans l’environnement dont
l’angle d’ouverture dépend de la valeur de zoom de la caméra. La Figure 5.6c montre qu’il
est possible de modifier la position de la vidéo dans l’interface. Cette figure montre aussi
le menu contextuel qui permet d’orienter la caméra vers un point précis de la cartographie
(concept de “réalité cliquée” proposé dans Hugues et al. (2010a)) ou encore de demander
à la caméra d’actualiser son orientation afin de rester dans la même position bien que le
bateau change de cap.

123
Architecture logicielle Chapitre 5. SIGMA : SIG Maritime Augmenté

(a) Une vue (2D) de l’interface graphique avec la (b) Une vue (3D) de l’interface graphique avec la
vidéo thermique en haut à droite ainsi que le cône vidéo thermique.
(rouge) indiquant la direction de la caméra.

(c) Le menu contextuel sur la cartographie permet


d’orienter la caméra vers le point sélectionné ou
de “bloquer” la caméra pour que son orientation
s’actualise de manière à toujours être dans la même
direction en fonction du cap du navire.

Figure 5.6: Trois vues de l’interface graphique du système avec une caméra thermique
connectée.

124
Chapitre 5. SIGMA : SIG Maritime Augmenté Architecture logicielle

4.2 Composant RecorderPlayer

Avant de présenter le composant principal de notre architecture, nous présentons celui qui
est en charge de l’enregistrement des données. L’objectif étant de proposer à l’utilisateur une
fonctionnalité qui permet de lire une vidéo dans l’environnement du système géographique.
Cette vidéo sera ainsi augmentée par les informations obtenues lors de la sortie en mer ou
de l’observation du trafic.

4.2.1 Fonctionnalité

Cet enregistrement sert aux marins pour réaliser des rapports de missions, pour analyser une
situation en cas d’accident, etc. Les systèmes d’enregistrement intégrés à de tels systèmes
d’information maritimes permettent d’enregistrer les données selon un intervalle de temps
défini par l’utilisateur (entre 20 minutes et plusieurs heures) excepté pour la trace dont la
position est enregistrée toutes les secondes. De plus, les systèmes du marché enregistrent
quelques données proprioceptives du navire, mais pas les données des autres navires détectés
par le radar ou par l’AIS par exemple.

4.2.2 Difficultés

Afin de synchroniser la vidéo avec les données en vue de la lecture, il est nécessaire d’en-
registrer les données dès qu’elles ont été mise à jour, ce qui peut arriver plusieurs fois par
seconde pour de nombreuses données. Le défi est donc double. D’une part, il est néces-
saire de synchroniser la vidéo avec toutes les autres données (à une image de la séquence
vidéo correspond une position du navire, une attitude (roulis, tangage, lacet) du navire,
une orientation de la caméra (azimut et élévation) ainsi que le zoom, mais aussi toutes les
données (position, orientation, vitesse, etc.) des cibles mobiles (ARPA, AIS, etc.). D’autre
part, le nombre important d’informations à enregistrer, leurs taux de rafraichissement et
le temps d’enregistrement (jusqu’à plusieurs jours, 24H/24) nécessitent la mise en place de
stratégies pour limiter l’encombrement des données.

4.2.3 Détails

Ce composant dépend de six autres composants comme l’illustre la Figure 5.7. Outre la dé-
pendance aux composants standards (Toolkit, DataSettings et Framework ), il est dépendant
du moteur graphique permettant de manipuler les textures correspondantes aux images des
différentes caméras. Il est aussi dépendant du composant “Mobile”, permettant d’obtenir
les informations de tous les types de mobiles présents (AIS, ARPA, DSC, PosReport) y
compris son propre navire.

125
Architecture logicielle Chapitre 5. SIGMA : SIG Maritime Augmenté

Toolkit Mobile GpuEngine


IMobileView ImageData Gen-
IAtomicData
IMobileScript Texture GenMatrix

«use» «use» «use»

RecorderPlayer
IRecorderView
IRecorderScript

«use» «use»
«use»

DataSettings Framework IO
CommandControler Sentences
Instance
MasterCollection PhysicalPort

Figure 5.7: Architecture logicielle du composant RecorderPlayer de SIGMA.

L’organisation fonctionnelle de ce composant peut être présentée en quatre couches logi-


cielles spécifiques comme l’illustre la Figure 5.8. Pour simplifier le schéma, on ne présente
ici que la partie de l’organisation qui prend en compte les données et on met de côté la
partie vidéo. On trouve donc les quatre couches suivantes :

Niveau supérieur : Ce niveau correspond à l’affichage des différents types de mobiles


disponibles. Le mobile principal est son propre bateau. Si un ré-
cepteur AIS, un radar ou autres technologies sont connectés au
système, d’autres types de mobiles deviennent accessibles ;

Niveau médian : Cette couche s’occupe de mettre à jour les données reçues depuis
la couche inférieure connectée aux entrées de l’ordinateur vers la
couche supérieure afin d’afficher les mobiles ;

Niveau inférieur : Cette couche s’occupe d’alimenter le niveau médian avec les don-
nées reçues du niveau bas. C’est à ce niveau que la fonctionnalité
d’enregistrement est connectée. Lors de l’enregistrement, le Recor-
derPlayer obtient les données depuis le niveau médian. Lors de la
lecture, le RecorderPlayer supplante le composant Input/output
afin de fournir au niveau médian des données enregistrées précé-
demment ;

Bas niveau : Le niveau bas intègre l’extraction des données depuis les phrases
NMEA. Suivant l’état du RecorderPlayer, ce niveau fournit aussi
les données et la vidéo synchronisée ;

126
Chapitre 5. SIGMA : SIG Maritime Augmenté Architecture logicielle

Niveau supérieur

Ownship AIS ARPA

Niveau médian

OwnshipUpdater TargetUpdater

Niveau inférieur

RecorderPlayer Input/Output

Bas niveau

Player Recorder Phrases NMEA

Figure 5.8: Organisation fonctionnelle du composant RecorderPlayer.

Les objets “Player” et “Recorder” sont des machines avec un nombre fini d’états. Ces deux
machines sont quasiment identiques et se composent de trois états distincts. Le premier
correspond à l’état “Actif”. Pour le “Recorder ”, il s’agit de l’état dans lequel l’objet enre-
gistre les données qui lui sont fournies par les différents “Updater ” alors que pour l’objet
“Player ”, il s’agit de l’état dans lequel l’objet parcourt la liste des données enregistrées
en fonction de la durée de lecture. Les deux autres états sont “Suspendu” et “Inactif”. Le
premier correspond à un état d’attente alors que le deuxième correspond à un état inactif
(Figure 5.9). L’utilisateur peut changer l’état de ces deux objets en utilisant une petite
interface graphique. D’autres réglages sont aussi accessibles, permettant à l’utilisateur de
choisir par exemple quels types de mobile il souhaite enregistrer ou à quelle vitesse de lec-
ture il souhaite rejouer les données. Le modèle de conception entre cette interface graphique
et les fonctions du composant respecte le format MVVM 3 .

3. Modèle de conception permettant de séparer la vue de la logique et de l’accès aux données en accen-
tuant les principes de binding et d’événement.

127
Architecture logicielle Chapitre 5. SIGMA : SIG Maritime Augmenté

Actif
Enregistrement
Lecture
Pause Reprendre

Stop

Suspendu Inactif
Stop

Figure 5.9: Détails de la machine à nombre fini d’état pour les objets “Recorder ” et “Player”.

L’implémentation de ce composant est présentée en annexe en Figure 6.3. Il présente lui


aussi le patron de conception “façade” en publiant deux interfaces. On voit que l’objet
RecorderPlayerScript est composé des deux machines à états finis “Recorder” et “Player ”.
Ces deux machines, en fonction de leurs états et des données à enregistrer ou à lire, utilisent
des objets permettant d’accéder aux deux fichiers dans lesquels se trouvent les données.
L’un correspond à un fichier vidéo pour lequel les images sont compressées à la volée et
l’autre contient toutes les données enregistrées sous un format binaire afin d’optimiser
l’espace disque. La synchronisation des données et de la vidéo se fait par l’ajout d’une valeur
incrémentale dans le fichier de données pour chaque image ajoutée dans le fichier vidéo.
Une stratégie a été mise en place pour limiter l’espace disque nécessaire. Cette stratégie est
détaillée en annexe Page 178.

4.3 Composant AugmentedReality

Nous allons maintenant présenter le composant principal de SIGMA. C’est ce composant


qui est chargé de créer l’espace de visualisation de l’environnement mixte. Il s’agit en réalité
de géoréférencer le flux vidéo obtenu depuis la caméra sélectionnée dans la scène 3D du sys-
tème d’information géographique. À l’image des deux composants précédemment présentés,
ce composant est dépendant de Toolkit, Framework et DataSettings que nous avons détaillés
succinctement en Section 4. De plus, il est dépendant du composant VideoCamera puis-
qu’il s’agit de réaliser une fonctionnalité de réalité augmentée en utilisant les informations
numériques du système d’information géographique combinées avec la vidéo issue d’une ou
plusieurs caméras orientables. Nous allons présenter ici les deux objets principaux de ce
composant qui sont le Transformer et le RaE3DProvider.

128
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul

Toolkit Mobile GpuEngine


IMobileView ImageData Gen-
IAtomicData
IMobileScript Texture GenMatrix

«use» «use»
«use»

AugmentedReality VideoCamera
Transformer «use» IVideoCameraView
RaE3DProvider IVideoCameraScript
«use»
«use»
«use»

DataSettings Framework Radar


CommandControler RadarRange
Instance
MasterCollection RadarUnitUpdater

Figure 5.10: Architecture logicielle du composant AugmentedReality de SIGMA.

Transformer : la fonctionnalité de cet objet est de fournir une relation d’entrée/sortie


entre un point exprimé dans le repère du bateau vers ce même point exprimé dans le
système géodésique mondial en fonction de la configuration matérielle (positions des
différents capteurs sur le bateau) et des données dynamiques (position et attitude du
navire) ;
RaE3DProvider : cet objet représente ce que nous appelons les “dessinateurs”. Sa fonc-
tion principale est de créer des objets 3D par l’utilisation des primitives graphiques
(triangles) afin de les donner au moteur graphique du système d’information géogra-
phique. Ces objets sont reconstruits à chaque appel de la boucle de rendu du moteur
à une cadence d’environ 60 appels par secondes.
Dans les sections suivantes, nous présentons plus en détail ce composant et plus particuliè-
rement nous proposons une méthode générique de calcul de la position et de l’orientation
de la caméra en fonction des différents capteurs à bord du navire.

5 Proposition d’une méthode générique de calcul de la


pose de la caméra
Grand défi de la mise en œuvre d’une application de réalité augmentée, la détermination
de la position et de l’orientation (pose) de la caméra ou de la tête de l’utilisateur 4 est
à l’origine de nombreuses recherches. L’obtention d’une pose robuste, précise et en temps
interactif nécessite l’utilisation de méthodes parfois complexes. La lecture de la littérature
laisse apparaître trois catégories de méthodes visant à répondre à cette problématique.
La plus courante est l’approche “vision”. L’autre catégorie est ce que nous nommerons
l’approche “matérielle”. Bien que la caméra puisse être considérée comme un matériel, le
nombre d’applications utilisant cette méthode et la prépondérance de cette approche motive
4. Il est nécessaire de faire la distinction entre la caméra et la tête de l’utilisateur. Bien que la caméra
soit très souvent solidaire avec la tête de l’utilisateur, il existe de nombreux systèmes pour lesquels ce n’est
pas le cas, comme le notre par exemple.

129
Méthode générique de calcul Chapitre 5. SIGMA : SIG Maritime Augmenté

notre choix de l’extraire de l’approche matérielle. Enfin, la troisième catégorie regroupe les
applications dont le calcul de la pose de la caméra est réalisé par la fusion de données
provenant de plusieurs capteurs issus des deux catégories précédentes.
Vision : L’approche générale utilise des techniques d’analyse d’image permettant d’ob-
tenir les paramètres de translation et de rotation de la caméra entre une image
à l’instant t et une image à l’instant t 1. Dans ce contexte, il est nécessaire
de distinguer deux cas. Soit l’application autorise une préparation de l’en-
vironnement dans lequel l’utilisateur évoluera soit la préparation n’est pas
possible ;

Préparé : l’approche consiste à positionner, dans l’environnement proche,


des points de repère artificiels permettant à l’analyse d’image de détecter puis
de “suivre” ces marqueurs. Une méthode mathématique permet ensuite de
calculer les paramètres recherchés en fonction de la position et de l’orientation
de ces marqueurs. Ces marqueurs peuvent aussi être utilisés pour l’interaction
de l’utilisateur avec l’application. Cette méthode a été popularisée par le
développement de la solution ARToolKit (2010). Différents types et formes
de marqueurs existent ayant des avantages et inconvénients, mais la finalité
reste identique. Si ces marqueurs s’avèrent inesthétiques et parfois difficiles à
intégrer de façon transparente pour l’utilisateur, il est utile de préciser que
des algorithmes plus récents permettent d’utiliser une image complexe en
couleur en remplacement du marqueur. L’algorithme developpé par Lepetit
et al. (2003) et maintenant exploité par la société Total Immersion (2008) est
un de ceux-là. Les applications proposées par Meine Wohnung (2010); Nestle
(2010); Bottecchia et al. (2008); Paelke et Sester (2009) utilisent par exemple
la solution avec marqueurs artificiels ;
Non préparé : l’approche consiste en l’analyse de l’image pour en extraire
des zones particulières. Cette méthode est dite sans marqueur (“markerless”).
L’objectif est de détecter certains éléments naturels dans une image puis
de suivre leur position dans l’image suivante. L’analyse peut se faire par
la détermination de points d’intérêt dans l’image dont les descripteurs per-
mettent de considérer les points comme invariants en translation et en ro-
tation. Cela signifie que les descripteurs d’un point particulier dans l’image
seront très proches dans l’image suivante même si la position du point dans
l’image a changé. La mise en correspondance, à une tolérance près de ces
descripteurs permet de s’assurer du suivi de ce point. Les applications pro-
posées par Azuma et al. (1999); Radburn (2006); Neumann et You (1999);
Coors et al. (2000); Zhao et al. (2007) utilisent cette méthode sans marqueur.
D’autres méthodes ont été proposées comme celle de Platonov et al. (2006)
qui utilise des images clés. Celle de Wuest et al. (2005) extrait les lignes droites
de l’image ou celle de Paik et al. (1991) propose une détection de contours.
D’autres techniques issues de la robotique sont développées par Williams et al.
(2007); Klein et Murray (2007) ;

Matérielle : l’approche consiste à utiliser les informations issues des capteurs afin de dé-
terminer la position ou l’orientation du dispositif ou de l’utilisateur. Le cap-
teur couramment utilisé pour connaître deux des trois translations est le GPS
(l’altitude n’est pas utilisée eu égard à sa précision souvent insuffisante). Dans
certaines situations, l’utilisation des données secondaires fournies par le GPS
(vitesse, direction, etc.) permettent aussi de déterminer un paramètre de

130
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul

rotation. Les applications proposées par PinkFroot (2010); Research (2010);


Presselite; Wikitude (2010); Tonchidot (2010); Qualcom (2010); Layar (2010);
Junaio (2010) utilisent cette méthode. Lorsque l’application utilise une borne
interactive fixe, sa position étant connue et invariante, des codeurs peuvent
être utilisés pour connaître l’orientation de la borne dont un exemple est
proposé par ENSAM - On-Situ (2010) ;
Mixte : l’approche consiste à mettre en œuvre conjointement les deux types de mé-
thodes précédemment présentées. Toujours dans l’objectif d’atteindre une
robustesse et une précision importante, il s’agit d’utiliser les avantages d’une
approche pour combler les lacunes d’une autre. La littérature ne montre pas
de méthodologie globale pour ces différentes fusions tellement les approches
peuvent être variées. Les solutions proposées par Bachmann et al. (2001);
Ribo et al. (2002); You et al. (1999); Piekarski et al. (2003); Comport et al.
(2003) sont quelques exemples parmi les combinaisons possibles. Des tech-
niques avancées de fusion de données ont été proposées par l’utilisation de
filtre de Kalman par Foxlin (1996). Cette méthode permet de prédire avec
une erreur la position et l’orientation d’un marqueur dans l’image t + 1. La
recherche du marqueur peut donc s’effectuer dans une zone restreinte ;

Nous conseillons au lecteur souhaitant obtenir un complément d’information


sur les méthodes de calcul de la pose de la caméra et plus particulièrement
celles orientées vision de lire la thèse de doctorat de Klein (2006).

5.1 Constat et besoin


Concernant les méthodes issues de la catégorie “matérielle”, le calcul de la pose de la caméra
est en réalité restreint au calcul de la pose du dispositif. Les dispositifs utilisés, de taille
relativement réduite, permettent cette approximation puisque le capteur vidéo est proche
des capteurs d’orientation et de position. La précision des capteurs embarqués n’est pas
suffisante pour nécessiter la prise en compte des distances entre les capteurs à l’intérieur du
dispositif. En effet, puisque le GPS n’est précis qu’à quelques mètres, cela parait inutile de
prendre en compte les centimètres entre le capteur vidéo, le GPS et les capteurs d’orien-
tation. Dans ces cas, la pose de la caméra est réduite le plus souvent au calcul de quatre
degrés de liberté (deux degrés pour la position GPS du dispositif, un degré d’azimut et un
degré d’élévation).
Dans notre situation d’application, les distances en jeu entre la caméra, le dispositif d’af-
fichage ou encore la centrale inertielle nous interdisent de ne pas les prendre en compte.
Nous nous sommes donc appliqués à développer une fonctionnalité générique permettant de
connaître la position et l’orientation dans le référentiel géodésique mondial de tous repères
associés au navire. L’utilité de cette fonctionnalité n’est pas spécifique à notre application
de réalité augmentée, car elle peut aussi être utilisée pour l’affichage des données radar par
exemple. En effet, la position de l’antenne radar sur le bateau et la position de l’afficheur
de ce radar sont très importantes, surtout pour des navires de grande taille. C’est pour
cela que la position de la cabine du navire est référencée au même titre qu’un capteur ex-
téroceptif ou proprioceptif. Nous souhaitons donc réaliser un système capable de calculer
la position de tout point appartenant au bateau, dans le monde, en fonction des données
statiques (configuration des capteurs à bord) et des données dynamiques (position, attitude
du navire) comme illustré en Figure 5.11.

131
Méthode générique de calcul Chapitre 5. SIGMA : SIG Maritime Augmenté

Configuration des capteurs Données dynamiques

Entrée P Sortie

Point dans le repère bateau Point dans le repère géodésique

Figure 5.11: Description globale de la fonctionnalité de calcul de la position et de l’orien-


tation d’un repère associé au navire dans le repère géodésique mondial.

5.2 Méthode
Bien que cachée à l’utilisateur, cette fonctionnalité est jugée critique puisqu’elle est, par
exemple, utilisée pour afficher convenablement les informations radars en fonction de la
position de l’antenne radar et du poste de pilotage. De plus, une fonctionnalité proche est
déjà présente dans le logiciel, mais ne prend pas en compte l’attitude (roulis et tangage)
du navire. La précision des radars actuels et la future utilisation de cette fonctionnalité
pour une caméra vidéo nous amènent à prendre en compte cette attitude. Cependant, pour
être certains de ne pas créer de régression quant au code déjà présent, nous avons choisi de
développer la nouvelle fonctionnalité en utilisant le procédé des Test Unitaires 5 . Le lecteur
trouvera en annexe les détails de notre approche par tests unitaires et l’implémentation du
protocole de communication NMEA avec la centrale innertielle.

5.3 Position des capteurs


Les données statiques dont nous disposons proviennent du CCRP (Consistent Common
Reference Point). C’est une norme imposée par l’Organisation Maritime Internationnale
(OMI) (2007) qui définit le repère du bateau comme illustré en Figure 5.14 page 135. Tous
les capteurs embarqués (proprioceptifs et extéroceptifs) et certains points spécifiques du
navire (la cabine du pilote par exemple) sont positionnés et orientés dans ce repère. Certaines
données sont extraites de la documentation du constructeur du navire. Les données sont
renseignées par le navigateur lors de l’installation du logiciel d’aide à la navigation ou lors
d’ajout de nouveaux matériels. De plus, nous définissons le point SL qui représente le centre
de rotation du navire. Nous faisons l’hypothèse que la position du centre de rotation du
navire est fixe dans le repère du navire.
Nous souhaitons donc déterminer une méthode permettant de calculer la position et l’orien-
tation de tout point du bateau dans le monde. Pour tout solide positionné dans l’espace, la
5. Afin d’utiliser la méthode des tests unitaires, http\unskip\penalty\@M://[Link]/
(2011) propose un environnement de développement spécifique.

132
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul

position et l’orientation des capteurs requièrent six paramètres indépendants :

– Trois paramètres indépendants définissent la position d’un point SL du solide.


– Trois paramètres indépendants déterminent l’orientation du solide autour du point SL.

Lacet (R↵ )

SL

Roulis (R )

Tangage (R )

Figure 5.12: Les rotations selon le modèle Roulis, Tangage, Lacet.

Comme en “vision par ordinateur”, nous appellerons ce couple de triplet, la pose du capteur.
Définition d’un vecteur de translation :

2 3
Tx
T r(x,y,z) = 4 Ty 5 (5.1)
Tz

Définition des opérateurs de rotation :

2 3 2 3 2 3
1 0 0 C 0 S C↵ S↵ 0
Rx ( ) = 4 0 C S 5 , Ry ( ) = 4 0 1 0 5 , Rz (↵) = 4 S↵ C↵ 0 5
0 S C S 0 C 0 0 1
(5.2)
L’opérateur de rotation est donc défini par la matrice suivante :

0 1
C↵ C C↵ S S S↵ C C↵ S C + S↵ S
R(↵, , ) = @ S↵ C S↵ S S + C↵ C S↵ S C C↵ S A (5.3)
S C S C C

Nous allons doter les notations matricielles précédentes d’un facteur d’échelle en introdui-
sant une coordonnée supplémentaire. Cela nous permet donc d’utiliser la représentation en
coordonnées homogènes afin de définir un opérateur de passage d’un repère vers un autre
(Figure 5.13).

133
Méthode générique de calcul Chapitre 5. SIGMA : SIG Maritime Augmenté

Zj
Zi

Rj

Ri Yj
Xj
Yi

Xi
j
Ti

Figure 5.13: Transformation du repère Rj vers le repère Ri

La pose d’un capteur sur le navire est donc définie par une matrice homogène de Rotation
(5.3) et de Translation (5.1) avec un facteur d’échelle unitaire :

 i i
i Rj T rj
Tj = (5.4)
000 1

5.4 Définitions des opérateurs

Nous proposons en Figure 5.14 un exemple d’une configuration des différents capteurs à
bord. Il s’agit d’un exemple pour illustrer le déroulement des calculs sans pour autant
remettre en cause la généricité de la méthode proposée puisque toutes les positions des
capteurs sont données par l’utilisateur lors de la configuration du logiciel.

5.4.1 Opérateurs statiques

Comme nous l’avons précisé en Section 5.3, la définition du repère dans lequel sont posi-
tionnés et orientés les points sur le bateau provient du CCRP imposé par l’Organisation
Maritime Internationnale (OMI). L’origine du repère est positionnée à la proue (nez) du
bateau. L’axe y est longitudinal et l’axe x est transversal. L’altitude est sur l’axe z. Un
exemple de configuration est proposé en Figure 5.14.

134
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul

Y
Caméra

Cabine Y

SL

Centrale
GPS
Inertielle

Figure 5.14: Exemple de configuration des capteurs dans le Repère Bateau (RB).

Nous avons donc déclaré les différents repères nécessaires par rapport au repère bateau
(RB) en suivant le formalisme de l’équation (5.4).

– RB
TSL : définition du repère SL dans RB
– RB
TBC : définition de la base de la caméra dans RB
– RB
TGP S : définition du boîtier GP S dans RB
– RB
TRT L : définition du boîtier de la centrale inertielle dans RB

Le calcul des opérateurs permettant de connaître la pose des boîtiers GPS et RTL (boîter
de la centrale inertielle) dans le repère SL en considérant ces boîtiers solidement fixés au
navire s’écrivent :

SL SL 1
TGP S = TGP S · RB TGP S

SL SL 1
TRT L = TRT L · RB TRT L

5.4.2 Opérateurs dynamiques


Les définitions des opérateurs de mesures ne sont pas identiques aux opérateurs “boîtiers”
puisqu’il peut y avoir des problèmes de montage de ces boîtiers sur le navire par exemple.
Le constructeur du capteur définit le repère dans lequel les mesures seront exprimées et il
n’y a pas de raison que ce repère soit identique à celui qui permet de positionner le capteur
sur le navire.

135
Méthode générique de calcul Chapitre 5. SIGMA : SIG Maritime Augmenté

– TGP Sm : repère de la mesure GPS dans le monde. Cet opérateur représente une trans-
W

lation pure uniquement sur deux composantes (il n’est pas possible d’utiliser l’altitude
donnée par le GPS à cause de son imprécision).
– W TRT Lm : repère de la mesure de la centrale inertielle dans le monde. Cet opérateur
représente une rotation pure.

5.4.3 Modèle de la caméra

RC

D1

D2

RBC

Figure 5.15: Modèle géométrique de la caméra.

Nous avons choisi de définir le modèle géométrique de la caméra par cinq transformations
permettant de passer du repère de la base de la caméra (RBC ) au repère de la tête de la
caméra (RC ). L’opérateur permettant de connaître la pose de la tête de la caméra dans sa
base est donc identifié par cinq transformations qui sont :
1. Une Translation de D1 (la “hauteur” de la caméra)
2. Une Rotation d’azimut
3. Une Rotation d’élévation
4. Une Translation de D2 (le “décalage” de la lentille)
5. Une Rotation de roulis (la caméra ne dispose pas physiquement de ce degré de liberté.
Nous avons malgré cela modélisé la caméra de cette manière afin d’utiliser ce degré
de liberté plus tard).

BC
TC = T rd1 · R↵ · R · T rd2 · R

136
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul

5.5 Pose de la tête de la caméra


Il faut maintenant calculer la pose de la tête de la caméra dans le repère SL, et donc, la
pose de la base de la caméra dans ce même repère.

SL RB 1 RB
TBC = TSL · TBC

SL
TC = BC TC ·SL TBC
Il faut maintenant connaître la pose du repère SL dans le monde. La pose de ce repère
dépend donc de quatre opérateurs :

1. Mesure GPS
2. Mesure Centrale Inertielle (RTL)
3. Correction RTL (dans le cas où le boîtier de la centrale n’est pas parfaitement posi-
tionné)
4. Décalage de la position du boîtier GPS dans SL car dans une même boucle de calcul,
la mesure GPS ne change pas, il faut donc “tourner autour” du boîtier GPS.

W
TSL =W TGP Sm ·W TRT Lm ·SL TRT L ·SL TGP S (5.5)

Il est nécessaire de faire attention car, l’opérateur calculé dans l’équation (5.5) contient une
composante d’altitude. En effet, cela provient du fait que l’on a considéré que le repère de
la mesure GPS devait être invariant aux rotations et aux translations durant la boucle de
calcul. Cette composante en z implique que le navire (ou plutôt son centre de rotation)
vole ou coule en fonction des mouvements de rotation qu’il subit. Pour cela, nous faisons
l’hypothèse que le centre de rotation du navire que nous avons défini en SL doit rester au
niveau de l’eau, donc ne doit pas avoir d’altitude. Il faut donc supprimer la composante
en z dans l’opérateur W TSL . Nous avons maintenant tous les opérateurs nécessaires pour
connaître la pose des différents capteurs dans le monde.

W
TGP S =SL TGP S ·W TSL

W
TRT L =SL TRT L ·W TSL

W
TBC =SL TBC ·W TSL

W
TC =SL TC ·W TSL

L’objectif initial étant d’obtenir un opérateur permettant de connaître la pose, dans le


monde, de tous les capteurs positionnés dans le repère bateau, il nous faut encore calculer
cet opérateur.

W RB 1 W
TRB = TSL · TSL (5.6)

137
Méthode générique de calcul Chapitre 5. SIGMA : SIG Maritime Augmenté

5.6 Compensation
Nous souhaitons compenser les mouvements de la caméra imposés par les mouvements du
bateau afin d’améliorer la qualité du flux vidéo. Nous souhaitons utiliser les deux degrés
de liberté de la caméra pour contrecarrer les mouvements du navire. L’objectif est donc
de définir une pose souhaitée de la caméra dans le monde, puis de calculer les paramètres
articulaires à appliquer à la caméra pour que l’objectif soit maintenu malgré les mouvements
du navire. Pour cela, il est nécessaire de déterminer le modèle géométrique inverse (MGI)
de la caméra. Ce modèle lie l’espace articulaire associé aux différentes liaisons de la caméra
avec l’espace opérationnel dans lequel est définie la situation de la tête de la caméra.

5.6.1 Modèle Géométrique Inverse


Il s’agit de déterminer les coordonnées articulaires permettant d’obtenir une situation dési-
rée pour la tête de la caméra spécifiée par les coordonnées opérationnelles. Nous calculons
ce modèle en utilisant la méthode de Paul (1981).
Considérons la tête de la caméra définie par la matrice de transformation suivante :

T0,n = T0,1 (q1 ) · T1,2 (q2 ) · . . . · Tn 1,n (qn ) avec n = 5


Et U0 la situation du repère Rn lié à la tête de la caméra décrit par :
2 3
Sx Px Ax Px
6 Sy Py Ay Py 7
U0 = 6
4 Sz
7
Pz Az Pz 5
0 0 0 1
Alors, le MGI est obtenu en résolvant l’équation matricielle suivante :

U0 = T0,1 (q1 ) · T1,2 (q2) · . . . · Tn 1,n (qn ) avec n = 5


Par la méthode de Paul, en multipliant par Tj,j 1 (j = 1, . . . , 5) de chaque côté de l’équation,
on détermine, par identification, l’équation permettant d’obtenir q1 :
8
< sin q1 = Nx
cos q1 = Ny
:
q11 = q1 + ⇡
Puis, l’équation permettant d’obtenir q2 . L’expression est du type :

X sin(q2 ) + Y cos(q2 ) = Z
Les solutions sont donc (avec X 2 + Y 2 Z 2) :

8 p
>
> X Z + " X2 + Y 2 Z2
< sin(q2 ) =
p2 + Y 2
X avec " = ±1
>
> Y Z + " X2 + Y 2 Z2
: cos(q2 ) =
X2 + Y 2
Si non

sin(q2 ) = X ·Z
cos(q2 ) = X ·Z
Et enfin, l’équation permettant d’obtenir q3 :

138
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul


sin(q3 ) = cos(q1 ) + Ay · sin(q1 )
cos(q3 ) = Sx · cos(q1 ) + Sy · sin(q1 )

5.6.2 Détermination du nouveau repère


Nous définissons donc l’opérateur cible qui provient d’une pose de la caméra dans le monde,
à un instant t0 : W TCt0 . Il est maintenant nécessaire de connaître la pose souhaitée de la
caméra dans sa base. Cet opérateur T est une constante puisque nous voulons compenser
les mouvements :

W 1 W
T = TBC · TCt0
Le modèle géométrique précédemment calculé nous permet donc de déterminer q1 , q2 et q3
qui entrent dans la définition de W TBC pour satisfaire la condition “T est une constante”.
Avec cet opérateur, il est maintenant possible de calculer l’opérateur qui définit la pose de
la tête de la caméra dans le repère associé au centre de rotation du navire puis finalement,
dans le repère associé au monde :

SL
TC =BC TC ·SL TBC

W
TC =SL TC ·W TSL

Un portage vers le langage C# avec la bibliothèque graphique DirectX a été développé.


L’architecture globale est présentée dans le diagramme de classe de la Figure 6.4 en annexe.
Le dessinateur “RAE3DProvider ” est composé de l’objet “GeoVideoCameraSensor ” qui
met a jour la propriété publique “AttitudeVideoCameraInWorld ” permettant de connaître
la pose de la caméra dans le repère géodésique suivant tous les paramètres en jeu. Pour
réaliser ce calcul, c’est le “Transformer ” que nous venons de présenter qui est utilisé. Ces
informations permettent au dessinateur de positionner convenablement les six points qui
composent le plan (deux primitives triangulaires) sur lequel sera plaquée l’image de la
caméra dans le repère géodésique dans la scène 3D du système d’information géographique.
Ce plan, nommé “E3DImageVideo” dispose en effet des propriétés de cap (combinaison de
l’azimut de la caméra et du cap du bateau) et des différents angles de roulis et de tangages.
Il dispose aussi de propriétés permettant de modifier l’opacité de l’image que nous modifions
par l’utilisation d’un “shader” 6 spécifique.

5.6.3 Problèmes de précision


Nous nous sommes rendu compte d’un problème de précision de cette méthode au niveau
du positionnement géographique des capteurs. Ce problème de précision a deux causes.
Premièrement, cela provient du fait que les valeurs de positionnement dans le monde sont
stockées en virgule flottante. Ce qui entraîne que plus les valeurs stockées sont importantes,
plus la précision est faible et c’est justement les valeurs de position du GPS qui peuvent être
6. Suite d’instructions éxecutées par le processeur graphique de la machine.

139
Le meilleur des deux mondes : méthode hybride Chapitre 5. SIGMA : SIG Maritime Augmenté

des nombres très importants. Deuxièmement, il faut veiller à ne pas confondre les mètres
Mercator et les mètres “classiques”. La projection de Mercator est une projection cylindrique
du globe terrestre sur une carte plane (Figure 5.16a) formalisée par Gerardus Mercator en
1569. La précision des calculs est en effet variable en fonction de la position du navire dans
le monde. L’erreur était d’autant plus importante que le navire était éloigné du centre de
projection du système. Cependant, cette erreur est faible en comparaison de la première
source d’erreur, car elle ne dépasse pas 20 centimètres à l’échelle mondiale (Figure 5.16b) .

100 120 140 160 180 200


6

0.1

-
(a) Système de Projection Mercator. (b) Erreur de positionnement (distance en mètre entre le
point calculé et le point souhaité).

Figure 5.16: Erreur et systèmes de positionnement.

La résolution de la première cause d’imprécision peut être mise en œuvre par deux ap-
proches. La première consiste à développer des outils matriciels informatiques utilisant des
données au format “double” alors que la bibliothèque DirectX propose des outils matriciels
utilisant des données au format “float”. La deuxième solution consiste à exécuter toute la
méthode de calcul en considérant la position du navire “en zéro” dans le repère géodésique.
Puis, de prendre en compte la position du navire (les informations issues du récepteur GPS)
uniquement lorsque l’on cherche à connaître la position d’un point du navire dans le monde.
C’est cette deuxième méthode que nous avons choisie. Le “Transformer” exécute dans un
premier temps tous les calculs au voisinage de l’origine du repère géodésique puis dans un
second temps translate les résultats obtenus par les valeurs du GPS.

6 Le meilleur des deux mondes : méthode hybride


Nous faisons maintenant face au problème suivant : comment mettre en commun utilement
les informations provenant de la vidéo et celles de la cartographie du système d’information
géographique ? Il faut noter que la difficulté provient du fait que ces deux sources fournissent
des informations définies dans le même ensemble de définition. Il s’agit de déterminer quelles
informations nous devons choisir pour obtenir le meilleur des deux mondes. Avec les na-
vigateurs, nous avons conclus que la partie de la vidéo qui correspond à l’eau n’est que
peu intéressante face à la cartographie (exeptés les informations ponctuelles comme les na-
vires, les bouées, etc.). Inversement, les modèles 3D hors d’eau du système d’information
géographique ne sont pas encore assez précis pour rentrer en concurence avec la vidéo qui
de plus va permettre aux navigateurs de voir les phares ou certains danger en utilisant la
vue thermique de la caméra. Nous avons donc décidé qu’au dessus de l’horizon, la priorité
serait donnée à la vidéo et qu’en dessous de cet horizon la cartographie serait prioritaire.
Nous avons donc besoin de détecter l’horizon.

140
Chapitre 5. SIGMA : SIG Maritime Augmenté Le meilleur des deux mondes : méthode hybride

6.1 Détection de l’horizon


En se basant sur l’espace projectif illustré en Figure 5.17a, il est possible de déterminer
la relation liant les mouvements de la caméra (matrice de rotation pure) dans le repère
géodésique avec la hauteur de l’horizon dans l’image, en coordonnées pixels dans le repère
de la caméra, selon les angles de roulis ( ), tangage (↵) et lasset ( ) définis en Figure 5.17b.

(a) Espace projectif (extrait de Zabala (2006)).

Horizon 1


R
R↵ Horizon 2

(b) Degrés de libertés et extraction depuis l’es-


pace projectif. L’horizon 1 correspond à une
transformation d’un angle ↵ tandis que l’horizon
2 correspond à une transformation d’angle .

Figure 5.17: Espace projectif et degrés de liberté pour la détection de l’horizon.

La connaissance de la matrice de calibration de la caméra et de sa pose dans le repère monde


précédement calculé permettent d’utiliser la centrale inertielle de bord afin de limiter la zone
d’exploration de notre analyse d’image. Nous considérons, à l’état initial, que la caméra est
orientée horizontalement par rapport à l’eau. Les informations angulaires de la centrale
inertielle nous permettent d’évaluer la hauteur en pixel de l’horizon dans l’image. Nous
définissons donc une zone, autour de cette hauteur, englobant l’horizon par un rectangle
rouge comme illustré en Figure 5.18 dont la largeur est fixée à celle de l’image. La hauteur
de cette bande est définie par ↵+", avec " = ±5°. Par exemple, pour une résolution d’image
de 640x480, la hauteur de la bande est de 24 pixels (seulement 5% des pixels de l’image
totale).

141
Le meilleur des deux mondes : méthode hybride Chapitre 5. SIGMA : SIG Maritime Augmenté

Figure 5.18: Limitation de la zone d’analyse d’image par centrale inertielle.

6.2 Analyse d’image


L’objectif de cette analyse d’image et de détecter l’horizon à partir d’une image provenant
indifféremment d’une caméra vidéo ou d’une caméra thermique. Le segment ainsi détecté
est représenté sur l’image source par une ligne.
Notre analyse d’image se déroule en plusieurs étapes :
1. Normalization d’histogramme
2. Smooth Gaussian
3. Dilate/Erode
4. Smooth Laplacian
5. Threshold
6. Hough Lines Binary
7. Group Lines
8. Lines Filter
Nous avons utilisé la bibliothèque OpenCV 7 pour implémenter cette fonctionnalité. La
normalisation d’histogramme (1) est utilisée pour limiter les effets indésirables causés par
les variations de luminosité. Cela nécessite deux paramètres (minimum et maximum) afin de
déterminer la règle de proportionnalité entre la valeur du pixel d’entrée et la valeur du pixel
de sortie. Nous obtenons les meilleurs résultats pour des valeurs comprises entre 150 et 180.
Le filtre de convolution gaussien (2) est utilisé pour atténuer les bruits et lisser l’image. Il
nécessite un unique paramètre, le noyau, dont la valeur est encadrée entre 7 et 9 pour obtenir
les meilleurs résultats. Nous appliquons ensuite un opérateur morphologique de fermeture
(3) permettant d’atténuer les bruits. L’érosion et la dilatation sont exécutées avec l’élément
structurant (noyau) par défaut de la bibliothèque OpenCV avec 6 à 8 itérations. Nous
appliquons ensuite un filtre de convolution Laplacien (4) afin d’extraire les premiers contours
dont le nombre d’itération est aussi compris entre 6 et 8. Enfin, après avoir binariser l’image
(5), nous utilisons la transformée de Hough (6) afin de détecter les lignes de l’image. La phase
suivante consiste en une analyse statistique des lignes détectées par la méthode précédente.
Nous calculons la moyenne et l’écart type de la position de chaque extrémité des segments
pour grouper les segments proches ou qui se superposent. Enfin, nous filtrons les segments
détectés selon leurs coefficients directeur dans l’image. C’est la deuxième utilisation de
l’information de la centrale inertielle dans notre algorithme. Nous utilisons la valeur du
roulis pour filtrer les segments détectés. Tous les segments dont les coefficients directeurs
dans l’image sont éloignés de plus de 5% de la valeur de la centrale sont éliminés.
7. Intel Open Source Computer Vision.

142
Chapitre 5. SIGMA : SIG Maritime Augmenté Le meilleur des deux mondes : méthode hybride

(a) Image source. (b) Normalisation d’histo- (c) Filtre gaussien.


gramme.

(d) Filtre laplacien. (e) Algorithme de fermeture. (f) Seuillage.

Figure 5.19: Présentation des différentes étapes de notre analyse d’image sur une image
thermique.

L’utilisation de la centrale inertielle pour limiter la zone d’exploration de notre analyse


d’image (Section 6.2) comporte deux avantages. Premièrement, la réduction du nombre de
pixels à traiter par notre phase d’analyse permet d’obtenir des performances compatibles
avec une exécution temps réel et avec du matériel embarqué dont les ressources matérielles
sont limitées. En effet, le nombre de pixels à traiter étant réduit, les performances de
l’algorithme autorisent une fréquence minimum de 32 images par seconde pour la plus
grande résolution testée (Section 6.3). Deuxièmement, nous limitons les risques de détection
de lignes horizontales à la surface de l’eau et dans le ciel. Quelques résultats sont proposés
en Figure 5.20. On peut voir dans la Figure 5.20a que lorsque la centrale inertielle n’est pas
utilisée, une vague est détectée comme étant l’horizon, contrairement à la Figure 5.20b ce
qui illustre l’intérêt de la réduction de la zone de détection.

143
Le meilleur des deux mondes : méthode hybride Chapitre 5. SIGMA : SIG Maritime Augmenté

(a) Analyse d’image sans utiliser la centrale iner- (b) Analyse d’image en utilisant la centrale iner-
tielle. Une vague est détectée comme étant l’hori- tielle. La vague n’est pas détectée.
zon.

(c) Flux vidéo non thermique. (d) Flux vidéo non thermique.

(e) Un cas où l’horizon est quasiment invisible. (f) Flux vidéo non thermique avec brume.

Figure 5.20: Quelques résultats.

6.3 Performances
Les évaluations ont été réalisées sur un ordinateur équipé d’un Intel(T M ) Core 2 Duo ca-
dencé à 2.66GHz. Les tests ont été réalisés sur plusieurs séquences d’images dans différentes
situations et expositions. Nous présentons les résultats concernant trois séquences d’images
dont l’une étant une séquence d’image thermique. Notre algorithme de détection identifie

144
Chapitre 5. SIGMA : SIG Maritime Augmenté Le meilleur des deux mondes : méthode hybride

correctement l’horizon à hauteur de 98,45%. Le graphique en Figure 5.21a présente pour


chaque séquence d’images, le nombre d’images testées (à gauche) et le nombre d’images
pour lesquelles l’horizon a été détectée (à droite). Le temps de calcul de la routine d’extrac-
tion de l’horizon (hors rendu) atteint une moyenne de 6,5 millisecondes pour la résolution
de 640x480. Concernant les performances, nous voulions nous assurer que les différentes
résolutions potentiellement utilisables ne puissent pas détériorer la qualité visuelle de la
vidéo. Pour le cas de la résolution la plus importante testée, l’algorithme permet d’obtenir
environ 32 fps. Le détail de l’impact de la résolution de l’image sur notre algorithme est
disponible en Figure 5.21b.

1er Seq. 2sd Seq. 3ime Seq.

5,000
Nombre d’image

4,000

3,000

Nombre de séquences
(a) Évaluation de la détection de l’horizon.

320x240
55
640x480
Images par seconde

50

45
704x480
40

35
960x540
30

Résolution des images


(b) Nombre d’image par seconde (FPS) en fonction de
la résolution.

Figure 5.21: Évaluation des performances de l’algorithme en fonction de la résolution des


images.

145
Le meilleur des deux mondes : méthode hybride Chapitre 5. SIGMA : SIG Maritime Augmenté

6.4 Association vidéo et cartographie


Les deux objectifs de cette détection d’horizon présentée dans les sections précédentes sont le
mélange de la vidéo avec les données numériques géographiques embarquées sur le navire et
le recalage de cette vidéo. Nous découpons l’écran en deux zones distinctes comme illustré en
Figure 5.22a. Nous utilisons la programmation par shader 8 pour faire varier la transparence
de l’image différemment suivant les zones. Ce faisant, la hauteur de la Zone Ciel+Terre varie
en fonction de la position de l’horizon détecté par l’algorithme précédemment présenté.

Zone Ciel + Terre : la vidéo est affichée à 80% et les données numériques sont affichées
à hauteur de 20%. En effet, il ne faut pas supprimer complètement la cartographie car,
dans certaines situations, à l’approche des côtes par exemple, les montagnes peuvent
servir de point de repère aux marins. Etant donné que la cartographie modélise aussi
les montagnes, il ne faut surtout pas supprimer ces informations. Nous utilisons une
fonction exécutée par la carte graphique définie par la bibliothèque DirectX (HLSL)
permettant de réaliser une interpolation linéaire de la transparence entre cette zone
et la zone inferieure ;
Zone Mer : la vidéo est affichée à 20% et les données numériques sont affichées à hauteur
de 80%. En effet, il ne faut pas supprimer complètement la vidéo car, dans certaines
situations, à l’approche des ports par exemple, d’autres bateaux peuvent être proches
et visuellement “en dessous” de la ligne d’horizon. Il ne faut pas rendre la vidéo
totalement transparente au risque de faire disparaître les autres navires environnants.

La transparence de chaque zone est réglée par défaut avec les valeurs précédemment pré-
sentées. Cependant, l’utilisateur garde le droit de modifier ces valeurs dès qu’il le pense
nécessaire en utilisant des curseurs linéaires dans l’interface graphique du système d’infor-
mation géographique comme illustré en Figure 5.22b. Un exemple des différents cas est
disponible en Figure 5.23.

Ciel + Terre

Mer

(a) Définition des zones. (b) Interface permettant les différents réglages
d’opacité.

Figure 5.22: Définition des différentes zones de l’imageet interfaces pour les réglages.

8. Instructions directement exécutées par la carte graphique.

146
Chapitre 5. SIGMA : SIG Maritime Augmenté Le meilleur des deux mondes : méthode hybride

(a) Vidéo thermique dans les deux zones. Augmen- (b) Vidéo thermique augmentée par une route vir-
tations visuelles par objets vectoriels de type poly- tuelle à suivre et une bouée.
gone pour la côte et objet vectoriel ponctuel pour
une bouée. Cet exemple est un cas de réalité à com-
préhension augmentée.

(c) Vidéo thermique dans la zone supérieure, cou- (d) Vidéo thermique et objet synthétiques dans la
leur de la cartographie dans la zone inferieure et zone inferieure et modèle numérique de terrain dans
augmentations par des objets synthétiques vecto- la zone supérieure. Cas de visibilité augmentée.
riels. L’eau étant “remplacée” par la couleur de la
cartographie, le sens de la scène est rectifié. C’est
un cas de visibilité augmentée.

Figure 5.23: Quelques exemples du mélange entre le flux vidéo thermique et la cartographie
ainsi que des augmentations vectorielles.

147
Le meilleur des deux mondes : méthode hybride Chapitre 5. SIGMA : SIG Maritime Augmenté

(a) Image originale extraite d’une séquence (b) Image extraite d’une séquence d’images avec vi-
d’images sans mélange avec la cartographie. sualisation de la cartographie. La signification de la
scène est rectifiée (Chapite 2, Section 2.1) afin de
proposer les informations de profondeur pour gui-
der le navigateur. Deux informations ponctuelles
symbolisant des bouées ont aussi été ajoutées. C’est
une combinaison de réalité à compréhension aug-
mentée et de visibilité augmentée.

Figure 5.24: Un exemple du mélange entre la cartographie et la vidéo.

Les Figures 5.24 et 5.25 présentent différentes vues égocentrées proposées à l’utilisateur.
Ces figures illustrent l’intérêt du mélange entre la cartographie et la vidéo. Il peut s’agir
soit uniquement de réalité à compréhension augmentée, soit d’une combinaison de réalité
à compréhension augmentée et de réalité à visibilité augmentée. L’utilisateur a la possibi-
lité de changer l’orientation de son point de vue dans l’environnement cartographique. En
modifiant ce point de vue, il peut voir des informations issues de la vidéo lorsque son point
de vue coïncide avec l’orientation de la caméra. Ainsi, la cartographie est enrichie par la
présence des navires ou des grues sur la vidéo comme le présente la Figure 5.25a, mais la
vidéo est elle-même enrichie par les pontons de la cartographie, par les points de sonde ou
les bouées de signalisation comme illustré en Figure 5.25b ou en Figure 5.24b.

(a) Le flux vidéo thermique permet d’aperce- (b) Les navires visibles sur le flux vidéo semblent
voir deux navires à quai. Une transparance à être positionnés sur la cartographie le long des
été appliquée à la vidéo permetant de visualiser pontons. La ligne verte indique l’horizon et le
les deux sources d’information simultanément. On rectangle rouge indique un autre navire, celui-ci
peut ainsi voir les grues depuis la vidéo positionnées étant en mouvement.
sur le quai.

Figure 5.25: Exemple d’une situation de surveillance du traffic maritime.

Comme nous le précisions en introduction, l’objectif de mettre en commun visuellement


deux sources d’informations différentes, mais qui représentent la même information est

148
Chapitre 5. SIGMA : SIG Maritime Augmenté Une application : la détection de cible

réalisé par l’utilisation de la réalité augmentée. On voit en effet que la cartographie et la


vidéo se mélangent pour donner un ensemble cohérent d’informations.

7 Une application : la détection de cible


L’intégration du nouveau capteur qu’est la caméra thermique nous amène à développer
des fonctionnalités d’analyse d’image ayant un intérêt pour la navigation maritime. La
fonctionnalité plébiscitée par les marins lors de nos discussions était la détection des navires
sur la vidéo autant de jour que de nuit. De plus, lors de notre démarche présentée dans le
Chapitre 4, le patron nous a avoué que la caméra aurait une grande utilité s’il était possible
d’obtenir des informations sur les navires que l’on voit sur la vidéo et cela même s’ils ne
disposent pas d’émetteur AIS. En effet, bien que de nombreux navires soient équipés du
système AIS, il est uniquement obligatoire pour les navires de grande taille. Nous avons
donc décidé d’implémenter l’analyse d’image proposée par Samama (2010) permettant de
détecter les navires sur une image vidéo.

7.1 Implémentation
La solution proposée par Samama (2010) nécessite la mise en place d’une communication
avec un serveur web. Nous envoyons une requête spécifique à ce serveur et en retour, celui-
ci nous envoie une réponse dans un format XML. Le package “Root API ” présenté en
Figure 6.6 de l’annexe permet d’analyser la requête XML pour créer les objets contenant les
données issues de l’analyse d’image. Le package “ASV API ” est une surcouche permettant
de manipuler des objets de plus haut niveau, dont les propriétés utilisent les classes du
composant “Toolkit” du système d’information géographique. Le passage entre les objets
bruts et les objets de haut niveau se fait par une classe statique développée pour l’occasion
(non illustrée sur le diagramme de classe) offrant tous les outils nécessaires aux différentes
conversions. Les données reçues sont utilisées pour mettre en valeur les navires directement
sur l’image provenant de la caméra. On voit dans la Figure 5.26 que chaque navire détecté
est entouré d’un cadre rouge et identifié par une valeur unique.

Figure 5.26: Détection des navires sur une image thermique grand angle (130°) avec l’al-
gorithme de Samama (2010).

7.2 Un nouveau cadre d’application : le traffic portuaire


Dans les zones portuaires dont le traffic maritime est dense, il est nécessaire de surveiller
les navires au même titre que le contrôle aérien. C’est le sémaphore qui est en charge
de cette surveillance. Outre ses responsabilités d’écoute sur la fréquence de détresse pour
informer le CROSS en cas de besoin, les sémaphores assurent aussi la surveillance de leur
zone maritime. Ils participent à la coordination des opérations de sauvetage en mer et à
la diffusion des bulletins météorologiques. Ils régulent le traffic maritime et l’activité de
pêche ou de commerce. Ils font la surveillance des infractions à la réglementation maritime

149
Une application : la détection de cible Chapitre 5. SIGMA : SIG Maritime Augmenté

et font appliquer la réglementation pour la pêche (zones réservées). Ils surveillent aussi les
pollutions maritimes ainsi que le territoire côtier. La surveillance des activités maritimes se
fait par l’identification des navires et le signalement de navires suspects aux autorités, par
la gestion des entrées et des sorties des navires, etc. Les sémaphores sont équipés avec le
même matériel que l’on trouve sur un navire (AIS, radar, cartographie éléctronique, etc.).

Par l’utilisation d’une caméra thermique, nous proposons de détecter les navires sur l’image
de la caméra et de calculer la position géographique des ces navires. En utilisant la méthode
proposée par Samama (2010) qui consiste à appliquer le principe du sextant basé sur la
position de l’horizon dans l’image, il est possible de déterminer le cap et la distance qui
sépare le point de vue de la caméra de chaque cibles détectées sur la vidéo. Enfin, la position
géographique de la caméra étant connue, il est possible d’estimer la position géographique
des cibles sur la surface de la terre par l’utilisation de la projection WSG84 9 par exemple
avec en paramètre d’entrée la position géographique de la caméra ainsi que le cap et la
distance des cibles.

Nous utilisons cette position afin de créer un objet ponctuel géoréférencé dans le système
d’information géographique en utilisant les classes du composant “Mobile”. En effet, ces
objets sont des cibles au même titre que le sont les cibles AIS ou ARPA (issues du radar).
Une illustration des objets géoréférencés dans le système d’information géographique est
présentée dans la Figure 5.27. La grille dans la partie inférieure de l’écran indique toutes
les informations que nous fournissons pour chaque navire de la vidéo comme un nom (arbi-
traire), un identifiant unique, sa position, le cap, la distance, etc.

9. Système de coordonnées géodésique utilisé par le GPS.

150
Chapitre 5. SIGMA : SIG Maritime Augmenté Une application : la détection de cible

Figure 5.27: Les points rouges sur la cartographie sont les navires détectés sur la vidéo dont
la position a été estimée à partir des données de distance et de cap. Le tableau regroupe les
informations de toutes les cibles. Un cadre permettant de faire apparaître l’image de la cible
ainsi que ses informations est accessible en cliquant simplement sur l’objet qui représente
un navire. Le quart de cercle rouge illustre toujours le champ de vision de la caméra.

En sélectionnant une cible, le contrôleur peut voir une vignette du navire ainsi que certaines
informations comme sa position et son cap. Mais plus que l’ajout d’une grille, nous voulons
faciliter la mise en correspondance entre le navire sur la vidéo et les données s’y rapportant.
Pour cela, nous utilisons notre fonctionnalité permettant de géoréférencer la vidéo dans la
scène 3D du système d’information géographique. Dans cet exemple, la vidéo est issue de
deux caméras dont l’angle de vision est de 68° chacune. Chaque image est donc géoréférencée
dans la scène 3D du système d’information géographique.

151
Une application : la détection de cible Chapitre 5. SIGMA : SIG Maritime Augmenté

Figure 5.28: Les objets synthétiques représentant les navires sur la vidéo sont géoréféren-
cés dans l’environnement du système d’information géographique ainsi que la vidéo. Pour
illustrer le recalage au lecteur, un trait relie son propre navire (en rouge) jusqu’à l’objet qui
représente le navire extrait de la vidéo puis se continue jusqu’à ce qu’il croise la vidéo. On
voit bien que chaque cible se projette sur les cibles de la vidéo.

Pour illustrer la correspondance entre les objets synthétiques dans l’environnement de car-
tographie et les cibles sur la vidéo, nous proposons de tracer une droite depuis la position
calculée dans l’environnement géographique de la tête de la caméra et chacun des objets
(symboles circulaires verts). Cette droite se prolonge jusqu’à atteindre la vidéo. La Fi-
gure 5.28 montre au lecteur le tracé de ces droites. Cette vue allocentrée n’est pas proposée
à l’utilisateur. La vue qui lui est proposée est une vue à la première personne. Nous fixons
la position 10 du point de vue de la scène 3D afin qu’il corresponde à la position de la tête
de la caméra réelle dans l’environnement réel. L’utilisateur peut modifier l’orientation sans
limitation d’angle de la vue dans la scène, lui permettant ainsi de parcourir toute la zone
augmentée par la vidéo, ou plus s’il le souhaite.

10. Nous ne fixons pas l’orientation pour permettre à l’utilisateur de naviguer parmi le vaste champ de
vision de la caméra.

152
Chapitre 5. SIGMA : SIG Maritime Augmenté Une application : la détection de cible

(a) Chaque cible est augmentée d’un symbole (b) On peut aussi voir certaines informations
cliquable et encadré par un rectangle rouge si provenant de la cartographique comme un point
l’utilisateur décide de les afficher. de sonde dans cet exemple.

(c) En cliquant sur le symbole, l’utilisateur obtient plus d’information sur la cible comme sa position, son
cap ou une image du navire concerné.

Figure 5.29: Quelques exemples de la vue egocentrée proposée à l’utilisateur.

Dans la Figure 5.29, nous montrons quelques exemples d’une situation de surveillance mari-
time avec la vue proposée à l’utilisateur. Chaque navire sur la vidéo est identifié de manière
unique et augmenté d’un symbole dans le système d’information géographique. L’utilisateur
peut ainsi cliquer sur le symbole comme s’il cliquait sur le navire pour obtenir les infor-
mations le concernant. Chacunes des cibles détectées est encadrée par un rectangle rouge
et augmentée par un symbole cliquable permettant à l’utilisateur d’obtenir plus d’infor-
mations sur la cible en question. De plus, la vidéo est mélangée à la cartographie ce qui
laisse appraître d’une part des informations ponctuelles (point de sonde, bouées, etc.) et
d’autre part la couleur de base de la cartographie, les pontons, etc. Ce sont des cas de
réalité à compréhension augmentée (informations des cibles) combinée avec de la visibilité
augmentée (apparition de la cartographie sous l’eau).

153
Chapitre 5. SIGMA : SIG Maritime Augmenté Conclusion

8 Conclusion
Dans ce chapitre nous avons présenté l’architecture matérielle générale et l’architecture lo-
gicielle de SIGMA. Nous avons présenté plus particulièrement trois composants logiciels qui
ont été développés spécifiquement pour SIGMA. Nous avons ensuite présenté la méthode
générique de calcul de la position et de l’orientation de la tête d’une caméra orientable em-
barquée à bord. La prise en compte des contraintes spécifiques au métier maritime comme
le CCRP et le protocole de communication NMEA 183 permet au composant de réalité aug-
mentée de réaliser le géoréférencement du flux vidéo dans l’environnement cartographique
du système d’information géographique. Nous proposons ensuite une méthode hybride origi-
nale pour le géoréférencement de la vidéo par l’utilisation combinée d’une centrale inertielle
et d’une analyse d’image sur un flux vidéo thermique ou non thermique. SIGMA a été conçu
pour gérer plusieurs caméra simultanément et permettre ainsi d’obtenir une couverture des
environs jusqu’à 360°.
D’un point de vue moins technique, nous avons présenté les différentes fonctionnalités ren-
dues possibles par l’implémentation des composants précédemment présentés comme la
détection de cibles permettant la création d’objets synthétiques dans l’environnement de
cartographie. Nous avons aussi présenté un cadre d’utilisation de ce nouvel environnement
mixte crée par le mélange de la cartographie et de la vidéo.

155
Chapitre 6

Conclusion Générale

Rappel du contexte
Bien que considérée comme une zone de loisir est de détente par le grand public, l’environ-
nement maritime reste avant tout un lieu dangereux et hostile. Qu’elles soient à terre ou en
mer, les activités relatives au domaine maritime sont étonnantes en nombre et en diversité.
Depuis les premières cartes maritimes papiers jusqu’aux systèmes informatiques embarqués
actuels, depuis la corde à nœuds jusqu’aux sondeurs multifaisceaux, la technologie a trouvé
une place de choix dans cet environnement pour lequel chaque année voit son lot d’évo-
lutions. Aujourd’hui, le contexte économique morne et le contexte sociétal enclin à une
responsabilisation environnementale mènent les importateurs et exportateurs à privilégier
le transport maritime, moins polluant et moins couteux par unité transportée. Cependant,
cette augmentation du trafic maritime, auquel viennent s’ajouter les métiers de la pêche
pour nourrir une population toujours plus nombreuse, les activités de loisirs comme la voile
ou les sports diverses augmentent d’autant les risques d’accident dont les conséquences
matérielles, corporelles ou environnementales sont parfois désastreuses. Dans une étude
commandée par l’Organisation Maritime Internationnale (OMI), Jie et Xian-Zhong (2008)
ont identifié que 90% des blessés à travers le monde lors d’incidents ou d’accidents liés
au domaine maritime sont causés par des erreurs humaines et plus particulièrement lors
de l’utilisation d’outils d’aide à la navigation. La problématique, loin d’une problématique
spécifique à la navigation, provient de la multiplicité des sources d’informations dont dis-
pose l’utilisateur. Le passage de l’une à l’autre peut entraîner des “ruptures de contexte”
d’autant plus si les informations sont incohérentes. Dans ce mémoire, nous avons donc pro-
posé une solution technique permettant de mettre en commun des informations nécessaires
à la navigation maritime dans une vue unique. Cette vue permet de contextualiser les in-
formations afin de limiter ou d’éliminer le phénomène de désorientation spatio-temporelle
que l’on observe dans certaines situations.

Nos apports
La problématique liée à cette thèse nous a amenés à utiliser la réalité augmentée pour
réaliser la fonctionnalité permettant d’associer deux sources d’informations préalablement
séparées, mais complémentaires puisque représentant des informations communes. Ce fai-
sant, nous nous sommes d’abord penchés sur la technologie de la réalité augmentée en com-
mençant par proposer une finalité ainsi qu’une définition technique. Par notre analyse de
la littérature et basée sur une approche sensorimotrice de la perception et de l’action, nous
proposons un modèle d’immersion et d’interaction d’un individu dans un environnement
de réalité augmentée. Ce modèle, nommé 3i2RA, basé sur le modèle 3i2 proposé par Fuchs
et al., laisse apparaître une certaine symétrie entre la perception et la perception désirée
ou encore entre l’action sur l’environnement naturel et l’action avec l’interface motrice du
système. La disposition, de part et d’autre de l’utilisateur, de l’environnement naturel et
des technologies utilisées pour créer l’environnement augmenté met en exergue que c’est
Chapitre 6. Conclusion Générale

bien l’utilisateur, à un niveau cognitif, qui créer cet environnement augmenté dans lequel il
évolue avec cohérence dans la mesure ou les incohérences sensorimotrices sont faibles.
D’un point de vue plus pratique, nous proposons premièrement une méthode permettant
de faire le lien entre une modélisation de l’activité d’un individu sous forme de tâche et
une méthode agile de développement logiciel. Ainsi, les futurs développements du logiciel
ne seront plus guidés uniquement par le responsable du produit qui pense savoir ce qui
est bon pour le ou les utilisateurs, mais aussi par une démarche scientifique d’analyse du
comportement des individus.
Deuxièmement, nous proposons un outil d’aide à la navigation permettant de contextualiser
les informations provenant de la cartographie par le mélange, en temps réel, de cette dernière
et d’un flux vidéo. La difficulté provient de la sélection des informations pertinentes de
chacune des sources pour aboutir à une vue cohérente pour l’utilisateur.

Limitations
Concernant notre démarche de conception, il faut noter qu’elle nécessite une approche
parfois incompatible avec les exigences commerciales d’un produit industriel puisqu’elle
participe à l’allongement de son cycle de définition. Elle doit donc être mise en place le plus
tôt possible dans la définition du produit. De plus, comme nous en avons fait l’expérience
dans le Chapitre 4, le domaine maritime rend les observations en situation assez difficile.
En effet, de nombreux paramètres peuvent influencer les observations. La météorologie,
le coût d’une sortie, le caractère imprévisible et la dangerosité des autres usagers, le fait
que certaines situations ne sont observables qu’au bout de plusieurs heures de navigation
(alors que l’élément à observer ne dure que quelques secondes) sont quelques exemples des
difficultés rencontrées lors de ce type de démarche.
Concernant SIGMA, la première limitation est celle que nous avons déjà identifiée en In-
troduction du Chapitre 5. En effet, les avancées techniques en terme d’affichage ne nous
permettent pas d’utiliser des dispositifs portés mettant en œuvre une réalité augmentée
directe. Notre application est donc soumise aux problématiques liées à la différence entre le
point de vue de l’utilisateur sur son environnement réel et son point de vue dans l’environ-
nement de SIGMA.

Perspectives
D’un point de vue théorique, il est nécessaire d’approfondir encore le modèle 3i2RA. L’ob-
jectif serait dans un premier temps d’en dégager une méthode de conception de systèmes
utilisant la réalité augmentée. Il s’agirait par exemple de proposer un outil dédié aux concep-
teurs permettant de les assister dans leurs choix d’une technologie particulière pour réaliser
une application de réalité augmentée en fonction des effets qu’ils souhaitent obtenir sur l’uti-
lisateur, l’objectif étant d’optimiser l’immersion et l’interaction de l’utilisateur en fonction
de l’application, du matériel, du contexte, etc.
D’un point de vue plus pratique, maintenant que nous avons mis en œuvre un cadre de
développement pour la fusion des informations provenant de la cartographie et d’un flux
vidéo et après avoir montré un cas d’utilisation dans le domaine de la surveillance maritime,
nous souhaiterions développer des fonctionnalités encore plus spécifiques au métier mari-
time. Nous pensons par exemple à la meilleure façon d’informer l’utilisateur d’un risque
de collision, de lui fournir les informations nécessaires aux manœuvres ou à la position
du chalut pour les pêcheurs, etc. Du point de vue de l’analyse d’image, nous souhaite-
rions, toujours dans une optique d’apporter des fonctionnalités métier, ajouter un module

158
Chapitre 6. Conclusion Générale

de reconnaissance du type de navire (voilier, navire pneumatique, cargo, etc.). Enfin, nous
l’avons pas montré dans ce mémoire, mais il est possible d’ajouter les informations radar
sur la cartographie (il s’agit d’un “layer” de tous les échos radars). Nous souhaitons explorer
les possibilités offertes par la fusion des informations radars et vidéo pour l’utilisateur.
D’un point de vue matériel, deux perspectives s’offrent à nous pour l’instant. Premièrement,
si le choix d’une réalité augmentée indirecte nous a été imposé d’une part par le matériel
et d’autre part par les activités des marins, nous souhaiterions approfondir la possibilité
d’équiper l’utilisateur. Une première direction dont nous avons déjà parlé dans ce mémoire
consiste à utiliser un système de projection à l’intérieur de la cabine du navire ou sur les
vitres du sémaphore. Deuxièmement, nous souhaiterons évaluer les apports de l’utilisation
d’un dispositif portable lié au système principal et dédié à certaines fonctionnalités. Nous
pensons par exemple à l’utilisation de tablettes dont le marché se démocratise, y compris
dans le domaine maritime puisque ce type de dispositif tend à remplacer les plans papiers
dans les constructions navales par exemple.
Même si toutes ces perspectives ne seront pas abordées, les travaux entamés dans cette thèse
nous permettent d’envisager encore de nombreuses évolutions. Pour ce faire, des contacts ont
été pris avec des équipementiers maritimes afin de déployer SIGMA sur différents bâtiments
dans le but de passer à une phase d’industrialisation du premier module de réalité augmentée
intégré dans un système d’information géographique maritime.

159
Bibliographie

A
Résolution A817/19. Normes de fonctionnement pour les sytèmes de visualisation des cartes
électroniques et d’information (ECDIS). Organisation Maritime Internationnale (OMI).

Académie Française (navigation). Dictionnaire de l’académie française, neuvième édition


version informatisée. [Link]

H. Behzadan Amir et R. Kamat Vinett. Georeferenced Registration of Construction Gra-


phics in Mobile Outdoor Augmented Reality. Journal of Computing in Civil Engineering,
21(4) :247–258, July 2007.

Bruno Arnaldi, Philippe Fuchs, et Jacques Tisseau. Chapitre 1 du volume 1 du traité de la


réalité virtuelle. Les Presses de l’École des Mines de Paris, 1, 2003.

ARToolKit. HITLAB, http ://[Link]/artoolkit, 2010.

Kikuo Asai, Tomotsugu Kondo, Hideaki Kobayashi, et Akira Mizuki. A geographic surface
browsing tool using map-based augmented reality. In VIS’08 : Proceedings of the 2008
International Conference Visualisation, pages 93–98, Washington, DC, USA, 2008. IEEE
Computer Society. ISBN 978-0-7695-3271-4. doi : [Link]

Claude Aubry. SCRUM : Le guide pratique de la méthode agile la plus populaire. DUNOD,
Paris, 2010.

Automatic Sea Vision. [Link] 2011.

Malika Auvray et Philippe Fuchs. Perception, immersion et interaction sensorimotrices


en environnement virtuel. In A. Grumbach & E. Klinger (Eds.), Réalité Virtuelle et
Cognition. Numéro spécial de Intellectica, 45(1) :23–35, 2007.

Axis. [Link] 2011.

Ronald Azuma. A Survey of Augmented Reality. Presence : Teleoperators and Virtual


Environments, pages 355–385, August 1997.

Ronald Azuma, Bruce Hoff, Howard Neely III, et Ron Sarfaty. A motion-stabilized outdoor
augmented reality system. In Proceedings of IEEE Virtual Reality, Houston, pages 252–
259. IEEE, 13-17 March 1999.

Ronald Azuma, Yohan Baillot, Reinhold Behringer, Steven Feiner, Simon Julier, et Blair
MacIntyre. Recent advances in augmented reality. IEEE Computer Graphics and Appli-
cations, 21(6) :34–47, 2001. ISSN 0272-1716. doi : [Link]
10.1109/38.963459.
BIBLIOGRAPHIE BIBLIOGRAPHIE

B
Eric R. Bachmann, Robert B. McGhee, Xiaoping Yun, et Michael J. Zyda. Inertial and
magnetic posture tracking for inserting humans into networked virtual environments. In
VRST ’01 : Proceedings of the ACM symposium on Virtual reality software and techno-
logy, pages 9–16, New York, NY, USA, 2001. ACM. ISBN 1-58113-427-4. doi : http://
[Link]/10.1145/505008.505011. URL [Link]
id=505011&type=pdf&coll=GUIDE&dl=GUIDE&CFID=77828098&CFTOKEN=73031136.

Jean Baudrillard. Simulacres et simulation. Galilée, Paris, 1981.

Jean Baudrillard. Le crime parfait. Galilée, Paris, 1995.

Michel Beaudouin-Lafon. Instrumental interaction : an interaction model for desi-


gning post-wimp user interfaces. In CHI ’00 : Proceedings of the SIGCHI confe-
rence on Human factors in computing systems, pages 446–453, New York, NY,
USA, 2000. ACM. ISBN 1-58113-216-6. doi : [Link]
332473. URL [Link]
GUIDE&dl=GUIDE&CFID=104009858&CFTOKEN=17257472.

Kent Beck, Mike Beedle, Arie van Bennekum, Alistair Cockburn, Ward Cunningham, Mar-
tin, Fowler, James Grenning, Jim Highsmith, Andrew Hunt, Ron Jeffries, Jon Kern, Brian
Marick, Robert C. Martin, Steve Mellor, Ken Schwaber, Jeff Sutherland, et Dave Thomas.
Manifesto for agile software development. http: // agilemanifesto. org/ , 2001.

Benjamin B. Bederson. Audio augmented reality : a prototype automated tour guide. In


Conference companion on Human factors in computing systems, CHI ’95, pages 210–211,
New York, NY, USA, 1995. ACM. ISBN 0-89791-755-3. doi : [Link]
1145/223355.223526. URL [Link]

Steve Benford, Holger Schnädelbach, Boriana Koleva, Rob Anastasi, Chris Greenhalgh, Tom
Rodden, Jonathan Green, Ahmed Ghali, Tony Pridmore, Bill Gaver, Andy Boucher, Bren-
dan Walker, Sarah Pennington, Albrecht Schmidt, Hans Gellersen, et Anthony Steed. Ex-
pected, sensed, and desired : A framework for designing sensing-based interaction. ACM
Trans. Comput.-Hum. Interact., 12(1) :3–30, 2005. ISSN 1073-0516. doi : [Link]
[Link]/10.1145/1057237.1057239. URL [Link]
id=1057239&type=pdf&coll=GUIDE&dl=GUIDE&CFID=104939479&CFTOKEN=94790696.

C. Benton, R. Nitzel, et T. Zysk. Merging ocean/maritime models and arctic operations


using mission planning toolkits and augmented reality. pages 1–6, sept. 2008. doi :
10.1109/OCEANS.2008.5152110.

Henri Bergson. Matière et mémoire. Essai sur la relation du corps à l’esprit. Première
édition : 1939. Paris : Les Presses universitaires de France, 1965, 72e édition. Collection :
Bibliothèque de philosophie contemporaine, 1939.

Jacques Bertin. Sémiologie Graphique. Les diagrammes, les réseaux, les cartes. La Haye,
Mouton, Gauthier-Villars, EHESS, Paris, 1967.

Blaupunkt. http ://[Link]/, 2010.

Sébastien Bottecchia. Système T.A.C. : Télé-Assistance Collaborative. Réalité Augmentée


et NTIC au service des opérateurs et des experts dans le cadre d’une tâche de maintenance
industrielle supervisée. PhD thesis, Université Paul Sabatier, Toulouse III, 2010.

162
BIBLIOGRAPHIE BIBLIOGRAPHIE

Sébastien Bottecchia, Jean-Marc Cieutat, et Jean-Pierre Jessel. T.a.c : Système de réa-


lité augmentée pour la télé-assistance collaborative dans le domaine de la maintenance.
AFRV08 Bordeaux, pages 133–138, Octobre 2008.

Roger Brunet. La composition des modèles dans l’analyse spatiale. L’Espace géographique,
4, 1980.

C
Sybille Caffiau, Dominique L. Scapin, Patrick Girard, Mickaël Baron, et Francis Jambon.
Increasing the expressive power of task analysis : Systematic comparison and empirical
assessment of tool-supported task models. Interacting with Computers, 22 :569–593, June
2010.

Gaëlle Calvary, Joëlle Coutaz, David Thevenin, Quentin Limbourg, Laurent Bouillon, et
Jean V. A unifying reference framework for multi-target user interfaces. Interacting with
Computers, 15 :289–308, 2003.

T.P. Caudell et D.W. Mizell. Augmented reality : an application of heads-up display tech-
nology to manual manufacturing processes. In System Sciences, 1992. Proceedings of the
Twenty-Fifth Hawaii International Conference on, volume ii, pages 659 –669 vol.2, jan
1992. doi : 10.1109/HICSS.1992.183317.

Jui Lin Chen et Kay M. Stanney. A theoretical model of wayfinding in virtual environments :
Proposed strategies for navigational aiding. Presence : Teleoper. Virtual Environ., 8 :
671–685, December 1999. ISSN 1054-7460. doi : 10.1162/105474699566558. URL http:
//[Link]/[Link]?id=1246851.1246858.

Alexis Clay, Elric Delord, Nadine Couture, et Gaël Domenger. Augmenting a ballet dance
show using the dancer’s emotion : conducting joint research in Dance and Compu-
ter Science. In Proceedings of International Conference on Arts and Technology (Art-
sIT2009), volume à paraître, YiLan, Taïwan, Province De Chine, September 2009. URL
[Link] 9 pages.

Coastal Explorer. http ://[Link]/[Link], October 2009. URL http://


[Link]/[Link].

A. Comport, F. Marchand, et F. Chaumette. A Real-time Tracker for Markerless Augmen-


ted Reality. In ACM/IEEE Int. Symp. on Mixed and Augmented Reality, ISMAR’03,
pages 36–45, Tokyo, Japan, October 2003.

V. Coors, T. Huch, et U. Kretschmer. Matching buildings : pose estimation in an ur-


ban environment. Augmented Reality, 2000. (ISAR 2000). Proceedings. IEEE and ACM
International Symposium on, pages 89–92, 2000. doi : 10.1109/ISAR.2000.880928.

Céline Coutrix. Interfaces de Realité Mixte : Conception et Prototypage. PhD thesis,


Université Joseph Fournier - Grenoble 1, 7 mai 2009.

163
BIBLIOGRAPHIE BIBLIOGRAPHIE

D
W. Dangelmaier, M. Fischer, J. Gausemeier, C. Matysczok, et B. Mueck. Virtual and
augmented reality support for discrete manufacturing system simulation. Computers in
Industry, 56 :371–383, 2000.
R.P. Darken, T. Allard, et L.B Achille. Spatial orientation and wayfinding in large-scale
virtual spaces : Guest editors’ introduction. Presence : Teleoperators and Virtual Envi-
ronments, 8(6) :3–6, 1999.
Jean Denègre et François Salgé. Les systèmes d’information géographique. Number 2-13-
053923-8 in Que sais-je ? 2004.
R. Devilliers, A. Stein, Y. Bédart, N. Chrisman, P. Fisher, et W. Shi. 30 years of research
on spatial data quality - achievements, failures and opportunities. Transaction in GIS,
(557), 2010.
Jean-Yves Didier. Contribution à la dextérité d’un système de réalité augmentée mobile
appliqué à la maintenance industrielle. PhD thesis, Université d’Evry, Décembre 2005.
Direct Line. [Link]
Marcus A. Doel et David B. Clarke. Virtual worlds. simulation, suppletion seduction and
simulacra. Virtual Geographies. Bodies, Spaces and Relations, pages 261–283, 1999.
Paul Dourish. Where the Action is : The Foundations of Embodied Interaction. MIT Press,
Décembre 2001.
R. M. Downs et D. Stea. Maps in Minds : Reflections on Cognitive Mapping. Harper and
Row, 1977.
Emmanuel Dubois. Chirurgie Augmentée, un Cas de Réalité Augmentée ; Conception et
Réalisation Centrées sur l’Utilisateur. PhD thesis, Université Joseph Fourier, Grenoble,
juillet 2001.
Emmanuel Dubois, Laurence Nigay, Jocelyne Troccaz, Olivier Chavanon, et Lionel Carrat.
Classification space for augmented surgery, an augmented reality case study. In A. Sasse
and C. Johnson (eds.), Proceedings of Interact’99, IOS Press. Edinburgh (UK), pages
353–359, 1999.
Emmanuel Dubois, Laurence Nigay, et Jocelyne Troccaz. Combinons le monde virtuel et
le monde réel : Classification et principe de conception. Actes des Rencontres Jeunes
Chercheurs en Interaction Homme-Machine, pages 31–34, Mai 2000.
Emmanuel Dubois, Philip Gray, et Laurence Nigay. ASUR++ : supporting the design of
mobile mixed systems. Interacting with Computer, pages 497–520, 2003.

E
ENSAM - On-Situ. Dispositif de réalité augmentée pour l’abbaye de cluny : Ray-on. http:
//[Link]/, 2010.
ESTIA. Ecole Supérieure des Technologies Industrielles Avancées, 2010. URL http://
[Link].

164
BIBLIOGRAPHIE BIBLIOGRAPHIE

F
Steven Feiner, Blair Macintyre, et Dorée Seligmann. Knowledge-based augmented rea-
lity. Commun. ACM, 36(7) :53–62, 1993. ISSN 0001-0782. doi : [Link]
[Link]/10.1145/159544.159587. URL [Link]
159587&type=pdf&coll=GUIDE&dl=GUIDE&CFID=104985037&CFTOKEN=42929083.

Steven Feiner, Blair MacIntyre, Tobias Höllerer, et Anthony Webster. A touring machine :
Prototyping 3d mobile augmented reality sytems for exploring the urban environment.
In Proc ISWC’97 (Int. Symp. on Wearable Comuting), pages 74–81, October 1997.

K. P. Fishkin, T. P. Moran, et B. L. Harrison. Embodied User Interfaces : Towards Invisible


User Interfaces. In Proceedings of the IFIP TC2/TC13 WG2. 7/WG13. 4 Seventh Wor-
king Conference on Engineering for Human-Computer Interaction, pages 1–18. Kluwer,
1998.

FLIR. http ://[Link], 2010. URL [Link]

E. Foxlin. Inertial head-tracker sensor fusion by a complementary separate-bias kalman


filter. Proceedings of the IEEE Virtual Reality Annual International Symposium, pages
185–194, April 1996.

Eric Foxlin, Michael Harrington, et George Pfeifer. Constellation : A wide-range wireless


motion tracking system for augmented reality and virtual set applications. Proceedings
of the 25th annual conference on Computer graphics and interactive techniques, pages
371–378, 1998.

K. Frod. Mandatory ECDIS-IMO takes first steps. Primar Stavanger Newsletter, 2, 2006.

Philippe Fuchs et Guillaume Moreau. Le Traité de la Réalité Virtuelle. Presse de l’Ecole


des Mines de Paris, Troisième Edition. Mars 2006.

Philippe Fuchs, Olivier Hugues, et Olivier Nannipieri. Proposition d’une taxonomie fonc-
tionnelle des environnements de réalité augmentée. AFRV09, 9-11 Décembre 2010.

Phillipe Fuchs, Guillaume Moreau, et J.P. Papin. Le Traité de la Réalité Virtuelle. Presse
de l’Ecole des Mines de Paris. Première Edition, Mars 2001.

Furuno. http ://[Link]/, Octobre 2009. URL [Link]

G
Erich Gamma, Richard Helm, Ralph Johnson, et John Vlissides. Design Patterns, Elements
of Reusable Object-Oriented Sofware. 1994.

Garmin. http ://[Link]/garmin/cms/site/fr, October 2009. URL [Link]


[Link]/garmin/cms/site/fr.

Payam Ghadirian et Ian D. Bishop. Composition of augmented reality and GIS to visua-
lize environmental changes. In Joint AURISA and Institution of Surveyors Conference
Ghadirian et Bishop (2008), pages 226 – 232. doi : DOI:10.1016/[Link].2008.
03.004. URL [Link]
2/13f35a888265113ef106c371da17324b.

165
BIBLIOGRAPHIE BIBLIOGRAPHIE

Payam Ghadirian et Ian D. Bishop. Integration of augmented reality and gis : A new
approach to realistic landscape visualisation. Landscape and Urban Planning, 86(3-
4) :226 – 232, March 2008. ISSN 0169-2046. doi : DOI:10.1016/[Link].2008.
03.004. URL [Link]
2/13f35a888265113ef106c371da17324b.
J.J. Gibson. The senses considered as perceptual systems. Houghton Mifflin, Boston, 1966.
Simon Gibson, Alan Chalmers, Gilles Simon, Javier-Flavio Vigueras Gomez, Marie-Odile
Berger, Didier Stricker, et Wolfram Kresse. Photorealistic Augmented Reality. In Second
IEEE and ACM International Symposium on Mixed and Augmented Reality - ISMAR’03,
page 3 p, Tokyo, Japon, 10 2003. IEEE, ACM, none. URL [Link]
inria-00099825/en/. Colloque sur invitation. internationale.
Ronan Golhen. Un modèle orienté objet pour les systèmes d’informations géographiques.
PhD thesis, Université de Clermont-Ferrand 2, 1996.
J-C Gonzato, T. Arcila, et B. Crespin. Virtual objects on real oceans. GRAPHICON’2008,
Russie, Moscou, December 2008.
Google Android. http ://[Link]/, 2010. URL [Link]
Scrum User Group. Scrum user group. SUG [Link], Juin 2009.
Yan Guo, Qingyun, Yi Luo, Weiwei Zhang, et Lu Xu. Application of augmented reality
GIS in architecture. The International Archives of Photogrammetry, Remote Sensing and
Spatial Information Sciences, XXXVII(Part B5) :331–336, 2008.

H
Nicholas Hedley, Mark Billinghurst, Lori Postner, Richard May, et Hirokazu Kato. Explo-
rations in the use of augmented reality for geographic visualization. Presence : Teleoper.
Virtual Environ., 11(2) :119–133, 2002. ISSN 1054-7460. doi : [Link]
1054746021470577.
Steve Henderson et Steve Feiner. Augmented reality for maintenance and repair (armar).
Technical Report AFRL-RH-WP-TR-2007-0112, United States Air Force Research Lab,
Jul 2007.
Steven J. Henderson et Steven Feiner. Evaluating the benefits of augmented reality for task
localization in maintenance of an armored personnel carrier turret. Mixed and Augmented
Reality, IEEE / ACM International Symposium on, pages 135–144, 2009. doi : http:
//[Link]/10.1109/ISMAR.2009.5336486.
J. Herling et W Broll. Advanced self-contained object removal for realizing real-time dimini-
shed reality in unconstrained environments. Proceedings of the International Symposium
on Mixed and Augmented Reality 2010 (ISMAR’ 2010), pages 207–212, October 2010.
Tobias Höllerer, Steven Feiner, Tachio Terauchi, et Gus Rashid. Exploring mars : developing
indoor and outdoor user interfaces to a mobile augmented reality system. Computer and
Graphics, 23 :779–785, 1999.
Olivier Hugues, Jean-Marc Cieutat, et Pascal Guitton. Plateforme Expérimentale de Réa-
lité Augmentée Pour l’Aide à la Navigation Maritime. AFRV09, pages 111–115, 9-11
Décembre 2009.

166
BIBLIOGRAPHIE BIBLIOGRAPHIE

Olivier Hugues, Jean-Marc Cieutat, et Pascal Guitton. An experimental augmen-


ted reality platform for assisted maritime navigation. In AH ’10 : Proceedings
of the 1st Augmented Human International Conference, pages 1–6, New York, NY,
USA, 2010a. ACM. ISBN 978-1-60558-825-4. doi : [Link]
1785455.1785467. URL [Link]
pdf&coll=GUIDE&dl=GUIDE&CFID=88606291&CFTOKEN=15239074.
Olivier Hugues, Jean-Marc Cieutat, et Pascal Guitton. An experimental augmented reality
platform application for assisted maritime navigation : Following targets. In 12th Virtual
Reality International Conference (VRIC), ISBN : 2-9515730-9-X, pages 149–154. IEEE
Computer Society France, April 7-9 2010b.
Olivier Hugues, Jean-Marc Cieutat, Véronique Pilnière, et Pascal Guitton. SIG maritime
augmenté (SIGMA) un système enactif de réalité augmentée. 12e Conférence Interna-
tionale Ergonomie et Informatique Avancée (Ergo’IA 2010), Octobre 2010c.
Olivier Hugues, Jean-Marc Cieutat, et Pascal Guitton. Gis and augmented reality : State of
the art and issues. In Borko Furht, editor, Handbook of Augmented Reality, 10.1007/978-
1-4614-0064-6_33, pages 721–740. Springer New York, Aout 2011a. ISBN 978-1-4614-
0064-6.
Olivier Hugues, Philippe Fuchs, et Olivier Nannipieri. New augmented reality taxonomy :
Technologies and features of augmented environment. In Borko Furht, editor, Handbook
of Augmented Reality, 10.1007/978-1-4614-0064-6_2, pages 47–63. Springer New York,
2011b. ISBN 978-1-4614-0064-6.
Yi-ping Hung, Chu-song Chen, Yu-pao Tsai, et Szu-wei Lin. Augmenting panoramas with
object movies by generating novel views with disparity-based view morphing. Journal of
Visualization and Computer Animation, 13 :237–247, 2002.
Edmund Husserl. L’idée de la phénoménologie. Psychologie et Bient-être, 1992.

I
Technology Systems Inc. Augmented reality for marine navigation. Technical report, Look-
Sea, 2001. URL [Link]
Institut Geographique National. Cartographie : Volume 1 : Sémiologie graphique et
conception cartographique. Technical report, Ecole Nationale des sciences géographiques
(ENSG), Mars 1999.

J
Robert J.K. Jacob, Audrey Girouard, Leanne M. Hirshfield, et Michael S. Horn. Reality-
Based Interaction : A Framework for Post-WIMP Interfaces. pages 201–210. ACM Press,
Florence, Italy, April 5-10 2008.
William James. Pragmatism : A new name for some old ways of thinking. New York :
Longman Green and Co, 1907.
Wang Jie et Hu Xian-Zhong. The error chain in using electronic chart display and informa-
tion systems. In Systems, Man and Cybernetics, 2008. SMC 2008. IEEE International
Conference on, pages 1895 –1899, oct. 2008. doi : 10.1109/ICSMC.2008.4811566.

167
BIBLIOGRAPHIE BIBLIOGRAPHIE

Junaio. http ://[Link]/, 2010. URL [Link]

K
Emmanuel Kant. Kritik der reinen vernunft, J.F Hartknoch. Critique de la raison pure. éd.
Riga (trad. fr. Delamarre, A. et Marty F.). Gallimard, Paris, 1980, 1787.
Kurtis Keller et D’nardo Colucci. Perception in hmds : what is it in head-mounted displays
(hmds) that really make them all so terrible ? 3362(1) :46–53, 1998. ISSN 0277786X.
doi : DOI:10.1117/12.317454. URL [Link]
Haedong Kim, Byungtae Jang, Juwan Kim, Jungsik Kima, et Donghyun Kimb. An outdoor
augmented reality system for understanding remote geographical information. Interna-
tional Conference on Artificial Reality Telexistence, 7th :154–158, 1997.
Gary King, Wayne Piekarski, et Bruce. Thomas. Arvino — outdoor augmented reality
visualisation of viticulture gis data. In ISMAR ’05 : Proceedings of the 4th IEEE/ACM
International Symposium on Mixed and Augmented Reality, pages 52–55, Washington,
DC, USA, 2005. IEEE Computer Society. ISBN 0-7695-2459-1. doi : [Link]
10.1109/ISMAR.2005.14.
Georg Klein. Visual Tracking for Augmented Reality. PhD thesis, University of Cambridge,
2006.
Georg Klein et David Murray. Parallel tracking and mapping for small AR workspaces. In
Proc. Sixth IEEE and ACM International Symposium on Mixed and Augmented Reality
(ISMAR’07), Nara, Japan, November 2007.
Wolfgang Köhler. Gestalt Psychology, (trad. fr. La psychologie de la forme). Gallimard,
Paris, 1964, 1929.
Saul Aaron Kripke. A completeness theorem in modal logic. The Journal of Symbolic Logic,
24(1) :1–14, 1959.

L
Layar. http ://[Link]/, 2010. URL [Link]
Jean-Louis Le Moigne. L’Intelligence de la Complexité. Edition l’Harmattan, 2001.
Gérard Lebrun. Réel-Virtuel : la confusion du sens, volume 214, 23-41. Futuribles, No-
vembre 1996.
Vincent Lepetit, Luca Vacchetti, Daniel Thalmann, et Pascal Fua. Fully automated
and stable registration for augmented reality applications. In ISMAR ’03 : Procee-
dings of the 2nd IEEE/ACM International Symposium on Mixed and Augmented Rea-
lity, page 93, Washington, DC, USA, 2003. IEEE Computer Society. ISBN 0-7695-
2006-5. URL [Link]
GUIDE&dl=GUIDE&CFID=79611283&CFTOKEN=94894239.
Fotis Liarokapis, Ian Greatbatch, David Mountain, Anil Gunesh, Vesna Brujic-okretic, et
Jonathan Raper. Mobile augmented reality techniques for geovisualisation. In Proc. of
the 9th International Conference on Information Visualisation, IEEE Computer Society,
pages 745–751. IEEE Computer Society, 6-8 July 2005.

168
BIBLIOGRAPHIE BIBLIOGRAPHIE

Nicolas Liechtmaneger. L’aide médicale urgente en mer. Le rôle du centre de consultations


médicales maritime (CCMM). PhD thesis, Université Paris 5. Faculté de Médecine,
Septembre 2006.

Mark A. Livingston, J. Edward Swan, Joseph L. Gabbard, Tobias H. Höllerer, Deborah


Hix, Simon J. Julier, Yohan Baillot, et Dennis Brown. Resolving multiple occluded layers
in augmented reality. In In Proceedings of The 2nd International Symposium on Mixed
and Augmented Reality (ISMAR’03), pages 56–65, Tokyo, Japan, October 7-10 2003.

M
Blair Macintyre, Marco Lohse, Jay David Bolter, et Emmanuel Moreno. Ghosts in the
machine : Integrating 2d video actors into a 3d ar system. In In Proc. International
Symposium on Mixed Reality, 2001.

Wendy E. Mackay. Augmenting reality : A new paradigm for interacting with computers.
World Proceedings of ECSCW’93, the European Conference on Computer Supported Co-
operative Work, 7, 1993. doi : [Link].6506.

Wendy E. Mackay. Augmented reality : Linking real and virtual worlds a new paradigm
for interacting with computers. In proceedings of AVI’98. ACM Conference on Advanced
Visual Interfaces, New York : ACM Press, 1998.

MarineTraffic. [Link] 2011.

MaxSea. Maxsea intenational, 2011. URL [Link]

Meine Wohnung. Click & Design : [Link] 2010.

Maurice Merleau-Ponty. Phénoménologie de la perception. Edition Gallimard, Paris, 1998,


1945.

Paul Milgram. A taxonomy of (real and virtual world) display and control interactions.
In Proceedings of the 16th ACM Symposium on Virtual Reality Software and Techno-
logy, VRST ’09, pages 10–10, New York, NY, USA, 2009. ACM. ISBN 978-1-60558-869-
8. doi : [Link] URL [Link]
1145/1643928.1643932.

Paul Milgram et Fumio Kishino. A taxonomy of mixed reality visual displays. IEICE
Transactions on Informations Systems, E77-D(12) :1–15, December 1994.

Paul Milgram, Haruo Takemura, Akira Utsumi, et Fumio Kishino. Augmented reality : A
class of displays on the reality-virtuality continuum. Telemanipulator and Telepresence
Technologie, 2351 :282–292, 1994.

Alain Milon. La Réalité Virtuelle Avec ou Sans le Corps ? Number 2746706520. Le corps
plus que jamais, 2005.

J. Molineros et R. Sharma. Computer vision for guiding manual assembly. Proceedings


of the IEEE International Symposium on Assembly and Task Planning, pages 362–368,
2001.

169
BIBLIOGRAPHIE BIBLIOGRAPHIE

N
Olivier Nannipieri et Philippe Fuchs. Pour en finir avec la réalité : une approche "socio-
constructivisme" de la réalité virtuelle. Revue des Interactions Humaines Médiatisées,
10(1), 2009.

Ulric Neisser. Cognition and Reality : Principles and Implications of Cognitive Psychology.
W. H. Freeman & Co (Sd), 1976. ISBN 0716704773. URL [Link]
exec/obidos/redirect?tag=citeulike07-20&path=ASIN/0716704773.

3DVia Nestle. Minimoys : [Link] 2010.

Ulrich Neumann et Suya You. Natural feature tracking for extendible robust augmented
realities. In IEE Transaction on Multimedia, volume 1, pages 53–64, March 1999.

Laurence Nigay, Philippe Renevier, T Marchand, P Salembier, et L Pasqualetti. La réa-


lité cliquable : Instrumentation d’une activité de coopération en situation de mobilité.
Conférence IHM-HCI2001, Lille :147–150, 2001.

Donald A. Norman. Cognitive engineering. Book chapter of User Centered System Design,
New Perspectives on Human-Computer Interaction, pages 31–61, 1986.

O
Ordnance Survey. OS MasterMap, 2010. URL [Link]
oswebsite/products/osmastermap/.

Organisation Maritime Internationnale (OMI). http ://[Link]/.

Organisation Maritime Internationnale (OMI). Resolution MSC.192(79)). Proposed Modu-


lar Structure for RADAR Performance Standards. Design and Installation. CCRP and
off-set compensation., October 2007.

P
Volker Paelke et Monika Sester. Augmented paper maps : Exploring the design space of
a mixed reality system. ISPRS Journal of Photogrammetry and Remote Sensing, In
Press, Corrected Proof :–, 2009. ISSN 0924-2716. doi : DOI:10.1016/[Link].2009.
05.006. URL [Link]
2/aadb8e0693c40349b25eda110d62c957.

J.K. Paik, Y.C. Park, et S.W. Park. An edge detection approach to digital image sta-
bilization based on tri-state adaptive linear neurons. IEEE Transactions on Consumer
Electronics, 37(3) :521–530, August 1991.

Avi Parush et Dafna Berman. Navigation and orientation in 3d user interfaces : the impact
of navigation aids and landmarks. International Journal of Human-Computer Studies,
61(3) :375 – 395, 2004. ISSN 1071-5819. doi : DOI:10.1016/[Link].2003.12.018. URL
[Link]

R Passini. Wayfinding in architecture. New York : Van Nostrand Reinhold Press, 1992.

170
BIBLIOGRAPHIE BIBLIOGRAPHIE

R.C.P. Paul. Robot manipulators : Mathematics programming and control. MIT Press,
Cambridge, 1981.

Mathieu Petit, Cyril Ray, et Christophe Claramunt. A user context approach for adaptive
and distributed GIS. Proceedings of the 10th International Conference on Geographic In-
formation Science :AGILE’07, Lecture Notes in Geoinformation and Cartography, pages
121–133, May 2007.

Philadelphie. http ://[Link]/photoarchive/, 2011.

W. Piekarski. Tinmith Project, 2010. URL [Link]

Wayne Piekarski, D. Hepworth, V Demczuk, B. Thomas, et B. Gunther. A mobile augmen-


ted reality user interface for terrestrial navigation. In In 22nd Australasian Computer
Science Conference, pages 122–133, Auckland, NZ, January 1999.

Wayne Piekarski, Ben Avery, Bruce H. Thomas, et Pierre Malbezin. Hybrid indoor
and outdoor tracking for mobile 3d mixed reality. In ISMAR ’03 : Proceedings
of the 2nd IEEE/ACM International Symposium on Mixed and Augmented Reality,
page 266, Washington, DC, USA, 2003. IEEE Computer Society. ISBN 0-7695-
2006-5. URL [Link]
GUIDE&dl=GUIDE&CFID=78345517&CFTOKEN=27697444.

PinkFroot. Ship ahoy ! : http ://[Link]/, September 2010. URL [Link]


[Link]/.

Juri Platonov, Hauke Heibel, Peter Meier, et Bert Grollmann. A mobile markerless ar
system for maintenance and repair. In ISMAR ’06 : Proceedings of the 5th IEEE and ACM
International Symposium on Mixed and Augmented Reality, pages 105–108, Washington,
DC, USA, 2006. IEEE Computer Society. ISBN 1-4244-0650-1. doi : [Link]
org/10.1109/ISMAR.2006.297800. URL [Link]
1514222&type=pdf&coll=GUIDE&dl=GUIDE&CFID=77831885&CFTOKEN=43093623.

Barry A. Po, Brian D. Fisher, et Kellogg S. Booth. Comparing cursor orientations


for mouse, pointer, and pen interaction. In CHI ’05 : Proceedings of the SIG-
CHI conference on Human factors in computing systems, pages 291–300, New York,
NY, USA, 2005. ACM. ISBN 1-58113-998-5. doi : [Link]
1054972.1055013. URL [Link]
pdf&coll=GUIDE&dl=GUIDE&CFID=79478088&CFTOKEN=12841533.

Presselite. Metro paris : [Link]

Privilege Insurance. [Link]

Programme PR NF EN 62376. Système constitué par les cartes électroniques (ECS) -


exigences d’exploitation et de fonctionnement, méthodes d’essai et résultats d’essai exigés.
Matériels et systèmes de navigation et de radiocommunication maritimes, Juin 2011.

Serge Proulx et Guillaume Latzko-Toth. La virtualité comme catégorie pour penser le


social : l’usage de la notion de communauté vituelle. Sociologie et société, 32(2) :99–122,
2000.

171
BIBLIOGRAPHIE BIBLIOGRAPHIE

Q
Qualcom. http ://[Link]/, 2010. URL [Link]

R
Andrew Radburn. A mobile augmented reality demonstrator. Ordonance Survey, 2006.

Rationalcraft. Winscape : [Link] 2010.

Gerhard Reitmayr et Dieter Schmalstieg. Location based applications for mobile augmented
reality. ACM International Conference Proceeding Series ; Vol. 36, 2003a. ISSN 1445-
1336. URL [Link]

Gerhard Reitmayr et Dieter Schmalstieg. Data management strategies for mobile aug-
mented reality. In Proceedings of International Workshop on Software Technology for
Augmented Reality Systems, pages 47–52. IEEE Computer Society, 2003b.

Gerhard Reitmayr, Ethan Eade, et Tom Drummond. Localisation and Interaction for
Augmented Maps. Symposium on Mixed and Augmented Reality, 2005. URL http:
//[Link]/[Link]?id=1105191.

Philippe Renevier. Système Mixtes Collaboratifs sur Supports Mobiles : Conception et


Réalisation. Spécialité informatique, Université Joseph Fournier - Grenoble 1, Grenoble,
Juin 2004.

Rennes La Courrouze. La courrouze augmentée, http ://[Link]/, 2011. URL


[Link]

Salzburg Research. [Link] : [Link] 2010.

Miguel Ribo, Peter Lang, Harald Ganster, Markus Brandner, Christoph Stock, et Axel
Pinz. Hybrid tracking for outdoor augmented reality applications. IEEE Com-
put. Graph. Appl., 22(6) :54–63, 2002. ISSN 0272-1716. doi : [Link]
org/10.1109/MCG.2002.1046629. URL [Link]
618943&type=external&coll=GUIDE&dl=GUIDE&CFID=76592487&CFTOKEN=86060046.

Teresa Romao, Nuno Correia, Eduardo Dias, Adelaide Trabuco, Carlos Santos, Rossana
Santos, Edmundo Nobre, António Câmara, José Danado, et Luís Romero. Augmenting
reality with geo-referencend information for environmental management. In Proc GIS’02,
Virginia, USA, pages 175–180, 2002.

S
A. Samama. Innovative video analytics for maritime surveillance. In Waterside Security
Conference (WSS), 2010 International, pages 1 –8, nov. 2010. doi : 10.1109/WSSC.2010.
5730280.

Gerhard Schall, Erick Mendez, Ernst Kruijff, Eduardo Veas, Sebastian Junghanns, Bern-
hard Reitinger, et Dieter Schmalstieg. Handheld augmented reality for underground in-
frastructure visualization. Personal and Ubiquitous Computing, Special Issue on Mobile
Spatial Interaction, 13(4) :281–291, Mai 2008.

172
BIBLIOGRAPHIE BIBLIOGRAPHIE

Holger Schnädelbach, Boriana Koleva, Martin Flintham, Mike Fraser, Shahram Izadi, Paul
Chandler, Malcolm Foster, Steve Benford, Chris Greenhalgh, et Tom Rodden. The au-
gurscope : A mixed reality interface for outdoors. CHI Minneapolis, Minnesota, USA,
April 20-25 2002.

Suzanne Sebillotte. Décrire des tâches selon les objectifs des opréateurs. de l’inverview à la
formalisation. Rapport technique, Institut National de Recherche en Informatique et en
Automatique (INRIA), Janvier 1991.

Suzanne Sebillotte. Méthodologie pratique d’analyse de la tâche en vue de l’extraction de


caractéristiques pertinentes pour la conception d’interfaces. Rapport technique, Institut
National de Recherche en Informatique et en Automatique (INRIA), Mars 1994.

Jean-Pierre Séris. La Technique. Number 2-13-046034-8. Les grandes questions de la phi-


losophie, 1994.

Roger. Shepard et J. Metzler. Mental rotation of three dimensional objects. Science, 171
(972) :701–703, 1971.

Ben Shneiderman et Catherine Plaisant. Designing the User Interface : Strategies for Effec-
tive Human-Computer Interaction (4th Edition). Pearson Addison Wesley, 2004. ISBN
0321197860.

Julier Simon, Baillot Yohan, Lanzagorta Marco, Brown Denis, et Rosenblum Lawrence.
Bars : Battlefield augmented reality system. in Nato Symposium on Information Proces-
sing Techniques for Military Systems, pages 9–11, 2000. doi : [Link].5064.

SNSM. Société Nationale de Sauvetage en Mer. [Link], 2011.

Le Song et Masahiro Takatsuka. Real-time 3d finger pointing for an augmented


desk. In AUIC ’05 : Proceedings of the Sixth Australasian conference on User inter-
face, pages 99–108, Darlinghurst, Australia, Australia, 2005. Australian Computer So-
ciety, Inc. ISBN 1-920682-22-8. URL [Link]
1082256&type=pdf&coll=GUIDE&dl=GUIDE&CFID=79604579&CFTOKEN=63811680.

Robert Spence. A framework for navigation. Int. J. Hum.-Comput. Stud., 51 :919–945,


November 1999. ISSN 1071-5819. doi : 10.1006/ijhc.1999.0265. URL [Link]
[Link]/[Link]?id=339913.339926.

Ivan E. Sutherland. The Ultimate Display. In IFIP Congress, pages 506–508, 1965.

Ivan E. Sutherland. A head-mounted three dimensional display. In AFIPS ’68 (Fall,


part I) : Proceedings of the December 9-11, 1968, fall joint computer conference, part
I, pages 757–764, New York, NY, USA, 1968. ACM. doi : [Link]
1476589.1476686. URL [Link]
pdf&coll=GUIDE&dl=GUIDE&CFID=80293402&CFTOKEN=75039165.

T
Yasuhiko Takaya, Hiroko Mugibayashi, Mika Satomi, Takahiro Kobayashi, et Atsuhito Se-
kiguchi. Geo-Media : The interactive augmented-reality system for outdoor use with
VRS-RTK-GPS. In Proceedings of the Tenth International Conference on Virtual Sys-
tems and Multimedia, pages 1262–1271, 2004.

173
BIBLIOGRAPHIE BIBLIOGRAPHIE

Hirotaka Takeuchi et Ikujiro Nonaka. The new new product development game. Har-
vard Business Review, 1986. URL [Link]
20Prod%20Devel%[Link].

Indira Mouttapa Thouvenin. Interaction et connaissance : construction d’une expérience


dans le monde virtuel. Habilitation à Diriger des Recherches, Université de Technologie
de Compiègne, 978-2-913923-28-7 :1–78, Mai 2009.

Tonchidot. http ://[Link]/en/, 2010. URL [Link]

Total Immersion. Physics and augmented reality, http ://[Link]/, 2008.


URL [Link]

U
UnLogo. http ://[Link]/, 2010.

[Link] Microsoft MSDN, 2011.

[Link] Association Française de Réalité Virtuelle, Augmentée, Mixte et


d’Interaction 3D, 2011.

W
Wenbi Wang. Human Navigation Performance Using 6 DOF Dynamic Viewpoint Tethering
in Virtual Environments. PhD thesis, University of Toronto, Toronto, Canada, 2004.

Roy Want, Andy Hopper, Veronica Falc ao, et Jonathan Gibbons. The active badge location
system. ACM Trans. Inf. Syst., 10(1) :91–102, 1992. ISSN 1046-8188. doi : [Link]
[Link]/10.1145/128756.128759. URL [Link]
128759&type=pdf&coll=GUIDE&dl=GUIDE&CFID=106919428&CFTOKEN=39693190.

Pierre Wellner. The digitaldesk calculator : Tactile manipulation on a desk top display. In
proceedings of ACM Symposium on User Interface Software and Technology (UIST’91),
pages 27–33, November 11-13 1991.

C. D. Wickens et T. T. Prevett. Exploring the dimensions of egocentricity in aircraft


navigation displays. Journal of Experimental Psychology : Applied, 1(2) :110–135, 1995.

J. M. Wiener, M. Lafon, et A. Berthoz. Path planning under spatial uncertainty. Memory


& cognition, 36(3) :495–504, April 2008. ISSN 0090-502X. URL [Link]
[Link]/pubmed/18491490.

Wikipedia. Encyclopédie Libre. URL [Link]

Wikitude. http ://[Link]/team, 2010.

A. Hoff William, Khoi Nguyen, et Torsten Lyon. Computer Vision-Based Registration


Techniques for Augmented Reality. Intelligent Robots and Computer Vision XV, In
Intelligent System and Advanced Manufacturing, SPIE, 2904 :538–548, November 1996.

B. Williams, G. Klein, et I. Reid. Real-time SLAM relocalisation. In Proc. International


Conference on Computer Vision, 2007.

174
BIBLIOGRAPHIE BIBLIOGRAPHIE

H. Wuest, F. Vial, et D. Stricker. Adaptive Line Tracking with Multiple Hypotheses for
Augmented Reality. In ISMAR’05 : Proceedings of the Fourth IEEE and ACM Interna-
tional Symposium on Mixed and Augmented Reality, pages 62–69, Washington, DC, USA,
IEEE Computer Society. 2005.

Y
Suya You, Ulrich Neumann, et Ronald Azuma. Hybrid inertial and vision tracking for
augmented reality registration. In VR ’99 : Proceedings of the IEEE Virtual Reality,
page 260, Washington, DC, USA, 1999. IEEE Computer Society. ISBN 0-7695-0093-5.

Z
Fransisco A. Zabala. Hough transform implementation in roll stability control of uavs. E-
Book, [Link] 2006.

Gangqiang Zhao, Ling Chen, Jie Song, et Gencai Chen. Large head movement tracking
using sift-based registration. ACM Multimedia MM’07, September 23-28 2007.

Siavash Zokai, Julien Esteve, Yakup Genc, et Nassir Navab. Multiview parapers-
pective projection model for diminished reality. In ISMAR ’03 : Proceedings of
the 2nd IEEE/ACM International Symposium on Mixed and Augmented Reality,
page 217, Washington, DC, USA, 2003. IEEE Computer Society. ISBN 0-7695-
2006-5. URL [Link]
Portal&dl=GUIDE&CFID=105979476&CFTOKEN=53600694.

175
Annexes

1 Tests Unitaires

Dans le domaine du génie logiciel, la finalité des tests unitaires est de s’assurer du fonc-
tionnement correct d’une fonctionnalité. On développe un test pour réduire voire éliminer
l’écart entre la réalisation et la spécification d’une fonctionnalité. Dans notre cas, la création
des tests unitaires passe par la construction des données d’entrée du système à tester (confi-
guration des capteurs, données dynamiques, un point du navire). Le résultat en sortie du
système est ainsi comparé (avec une tolérance) au résultat attendu. Le test permet de vali-
der la relation d’entrée / sortie du système. Nous avons construit les premiers tests unitaires
en utilisant le code déjà présent pour déterminer la sortie souhaitée du système afin que
la nouvelle fonctionnalité n’entraîne pas de régression. Pour ce faire, nous avons considéré
que les données dynamiques de l’attitude du navire étaient nulles. Ensuite, pour valider la
bonne prise en compte de l’attitude du navire, nous avons réalisé des tests avec des attitudes
particulières. Lorsque tous les tests sont validés, le système est considéré comme respectant
les spécifications et peut ainsi être utilisé. Pour information, notre système nécessite vingt-
quatre variables pour la construction d’un test unitaire complet. La majorité des données
d’entrée sont des réels ce qui implique une infinité de tests possible. La construction d’une
suite de tests exhaustifs est donc impossible. L’efficacité de cette méthode est dépendante
de la qualité et de la diversité des tests créés. De plus, il est conseillé que la création des
tests ne soit pas réalisée par la même personne qui va implémenter la fonctionnalité en
question.

2 Communication avec la centrale inertielle

La centrale inertielle que nous avons utilisée est une centrale spécifique pour le domaine
maritime. Elle dispose de deux récepteurs GPS, d’un accéléromètre trois axes et d’un gy-
romètre trois axes. Elle permet de connaître le cap du navire par un calcul de différence
de phase entre les deux signaux reçus par les récepteurs GPS. Les deux autres angles
de rotation sont déduits par les deux autres capteurs dont les signaux sont filtrés. Nous
avons été obligés de rendre notre système d’information géographique compatible avec ce
matériel. Comme de nombreux dispositifs maritimes, cette centrale utilise le protocole de
communication NMEA (National Marine Electronics Association). Ce protocole est basé
sur un échange de phrases (transmises ici par un port série) contenant une identification
ainsi que les données. Pour le cas de cette centrale, il s’agit de phrases propriétaires créées
par l’entreprise Furuno (2009) et déclarées officiellement auprès de l’Organisation Maritime
Internationnale (OMI). Le format de ces phrases est présenté dans la Figure 6.1.
Annexes

PFECatt- True Heading, pitching, rolling


$PFEC,GPatt,xxx.x,+xx.x,-xx.x*hh<CR><LF>
— — — — —
Checksum
Roulis
Tangage
Lacet (True Heading)
Identifiant

Figure 6.1: Format d’une phrase NMEA délivrée par la centrale inertielle.

<<abstract>>
Sentences

+ CheckSum : Checksum ?
+ Device : Device ?

- ComputeWarningFlag(ModeIndicator) : Warning

FecAtt

+ Heading : Heading
+ Pitch : Angle
+ Roll : Angle

Figure 6.2: Implémentation de la récupération des données d’attitude du bateau dans le


composant “IO”.

Les données sont reçues sur le port spécifié et sont analysées par le composant “IO”. Un
analyseur permet ensuite d’informer les objets métiers par évènements que des données sont
disponibles.

3 Format d’enregistrement
Dans l’objectif de montrer la nécessité de réaliser des optimisations lors de l’enregistrement
des données, nous présentons dans le Tableau 6.1a toutes les informations qu’il est nécessaire
de prendre en compte pour quelques données très courrantes.

178
Annexes

Façade

<<interface>> <<interface>>
IRecorderPlayerView IRecorderPlayerScript

RecorderPlayerView
RecorderPlayerScript
+ PlayerState
+ RecorderState
+ LastData : List<RecorderPlayerData>
+ Settings : RecorderPlayerSettings
+ GetData : List<RecorderPlayerData>
+ GetImage : IImages
+ PushImage : void
+ GetSpeed : int
+ PushData : void
+ Pause : void
+ Play : void
+ Stop : void
- Initialise : void
<<enum>> <<enum>> - Filtering : void
RecorderState PlayerState - Serialize : void

Recorder
Player
+ State : ControlState
+ BinaryWriter : BinariWriter + State : ControlState
+ ImageIndex : int + Container
+ Settings
+ ReadingSpeed
+ ChangeState : void
+ Pause(void) : void
+ PushImage(IImage) : void + ChangeState : void
+ PushData(DataContainer) : void + Pause(void) : void
+ Play(void) : void
+ Stop(void) : void
+ SetSpeed(i : int) : void

VideoWriter
VideoReader
+ AviManager : AviManager
+ FileName : string
+ AviManager : AviManager
+ VideoStream : stream
+ VideoStream : Stream

+ AddFrame(bitmap) : void
+ Close(void) : void
+ Close(void) : void
+ CreateAviManager(void) : void
+ GetVideoFileIndex(string fileName) : string
+ GetBitmap(index : int) : Bitmap
- GetCompressionOption(void)
+ VideoReader(fileName : string) : void

RecorderPlayerMetaData RecorderPlayerData

+ Date : DateTime + Data : object


+ Semantic : DataSemanticDescription + MetaData : RecorderPlayerMetaData
+ Source : DataSourceDescription
+ Equals(RecorderPlayerData) : bool
- GetDebugString(RecorderPlayerMetaData) : bool - GetDebugString(RecorderPlayerData) : bool

Figure 6.3: Diagramme de classes du composant RecorderPlayer.

179
Annexes

ARModule
RAModuleLayer

+ ConfigurationPolicy
+ Name
+ RootWorkItem
+ VideoCameraView : IVideoCameraView
+ SettingManager

+ Dispose(void) : void
+ AddServices(void) : void
+ Feed(List<Entyity3D>) : void
+ Initialize(ServiceDependency) : void
+ GetE3DProvider(void) : List<E3DProvider>
+ Load(void) : void

GeoVideoCameraSensor

+ AttitudeVideoCameraInWorld
+ AugmentedRealitySettings
RAE3DProvider + Ccrp
+ CorrectionParameter
+ IdleService
+ Settings : ARSettings
+ IOwnShipView
+ IVideoCameraScript
+ Dispose(void) : void + IVideoCameraView
+ Feed(List<Entity3D>) : void + VideoCameraPosition3DInWorld
+ ARE3DProvider : E3DProvider
+ GetImage(IVideoCamera) : bitmap
+ OnIdle(object sender, EventArgs e) : void
+ Initialize(ServiceDependency) : void
- GetFloat(Distance) : float

E3DImageVideo
OwnShipMobile

+ BottomOpacity : float
+ Position : Position
+ TopOpacity : float
+ Ccrp : Ccrp
+ Heading : Heading
+ Heading : Heading <<Sealed>>
+ Heaving : Distance Transformer
+ Pitch : Angle
+ Position : Position
+ Roll : Angle
+ Pitch : Angle
+ Heaving + CompensedAttitude : Attitude
+ Roll : Angle
+ CurrentSpeed + CameraInWorld : Attitude
+ FovHorizontal : float
+ ... - CameraAttitude : Attitude
- Ccrp : Ccrp
+ Dispose(void) : void - GPSPosition : Position
- CorrectionAttitude : Attitude
- InertialAttitude : Attitude
- C TW : GenMatrix

+ CcrpToWorld(CcrpPosition) : Position3D
+ SettAttitude(Angle, Heading, Attitude,...) : void
+ Compensate(bool) : void
- ComputeAngleFromMatrix(GenMatrix) : Angle
- ComputeDynamicMatrix() : void
- ComputeStaticMatrix() : void
- CcrpToLocalWorld(CcrpPosition) : LocalPosition
- GetCameraAttitude(VideoCamera) : Attitude
- GetCameraOperator(VideoCamera) : GenMatrix

Figure 6.4: Diagramme de classe du composant AugmentedReality.

180
Annexes

Façade

<<interface>> <<interface>>
IVideoCameraView IVideoCameraScript

VideoCameraScript
VideoCameraView
+ FakeControlable : IControlable
+ AxisNetwork + FakeImage : IImage
+ FlirNetwork
+ List<IImages> + Initialise : void
+ List<IControlables> + Lock : void
+ Move : void
+ DeletVideoCameras : void + ScanFlirNetwork : void
+ GetControlables : IControlable + SetColor : void
+ GetImages : IImages + Stop : void
+ Initialize : void + ZoomIn : void
+ ZoomOut : void

<<interface>>
ICameraNetwork

FlirNetwork AxisNetwork

+ ControlState : ControlState + ControlState : ControlState


+ RequestStates + RequestStates

+ WorkerTheadLaucher : void + WorkerTheadLaucher : void

FlirUpdater AxisUpdater

+ VideoCameraView : IVideoCameraView + VideoCameraView : IVideoCameraView


+ VideoCameraScript : IVideoCameraScript + VideoCameraScript : IVideoCameraScript

+ Initialize : void + Initialize : void


+ OnIdleTimeStamped : void + OnIdleTimeStamped : void
+ VideoCameraSettingsPropertyChanged + VideoCameraSettingsPropertyChanged

VideoCameraSettings

+ List<AxisDescriptions> : AxisDescription
+ List<FlirDescription> : FlirDescription

+ GetAxisDescription(ICamera) : AxisDescription
+ GetFlirDescription(ICamera) : FlirDescription

Figure 6.5: Diagramme de classes du composant VideoCamera.

181
Annexes

ASV API

AsvAsv

<<list>> <<list>>
AsvWebApi
AsvIRCameras AsvCapture

<<list>> <<list>>
AsvIRCamera AsvError
AsvSensor AsvCamera

<<list>>
AsvIRCameraState AsvErrorDescription
AsvTarget

Root API

asvASV_Capture asvASV_CAPTUREASV_SENSORS

AsvCameraReason

asvASV_CAPTURECAMERA_IMAGE

AsvIRCameraStatus

asvASV_CAPTURECAMERA_IMAGEDETECTION

asv

asvWebApi asvError asvIrcameras asvIrcamerasIrStatus

asvErrorDescription asvIrcamerasIrReason

Figure 6.6: Diagramme de classe de l’implémentation de la solution proposée par Auto-


matic Sea Vision (2011) dont l’algorithme d’analyse est présenté par Samama (2010) dans
le composant “Mobile” du système d’information géographique.

182
Annexes

Nom Type (IAtomic) Date (UTC) Valeur


(sémantique)
Heading Heading Date [Link]
Roulis Angle Date [Link]
Position Position Date [Link] ; [Link]
SpeedThroughWater Speed Date [Link]
(a) Exemples des données que le composant doit enregistrer.

SemanticDescription AtomicDescription Date (long) Valeur (double,


(short) (short) double)
32 6 4325 [Link]
(b) Format optimisé d’enregistrement des données dans le fichier. Exemple avec une donnée de nom
“Heading”, de type “Heading”.

Tableau 6.1: Données à enregistrer et format optimisé pour l’enregistrement.

Nombre de 1 mobile 200 mobiles 1000 mobiles


mobile
taille du fichier 0,4 80 420
(Mo/heure)

Tableau 6.2: Taille du fichier d’enregistrement des données en fonction du nombre de


mobiles.

L’enregistrement, même sous le format binaire, de la sémantique et du type de données direc-


tement sous forme de chaine de caractères aurait impliqué un espace disque trop important.
En effet, de nombreuses données sont reçues plusieurs fois par seconde, un enregistrement
pouvant durer plusieurs heures. Pour éviter cela, nous avons choisi d’écrire une table de
correspondance pour chaque sémantique et type atomique possible. Ainsi, à chaque séman-
tique et type correspond une valeur entière codée sous forme de “short”. Afin d’optimiser
l’enregistrement de la date, nous avons choisi de n’enregistrer que la date complète lors du
début de l’enregistrement puis le temps écoulé ensuite. Un exemple pour un type de donnée
est proposé dans le Tableau 6.1b. Le volume du fichier est ainsi optimisé pour de longues
périodes d’enregistrement comme le montre le Tableau 6.2. Il faut noter que le nombre de
mobiles dépasse rarement quelques dizaine d’unité.

L’interface à disposition de l’utilisateur, encore en phase de développement puisqu’elle né-


cessite d’être mieux intégrée dans le système d’information géographique, est présentée en
Figure 6.7. Il est donc possible de démarrer l’enregistrement ou la lecture ainsi que de mettre
les deux en pause. Il est aussi possible de choisir les types de cibles qui seront enregistrées
commes les AIS ou les ARPA par exemple.

183
Figure 6.7: Interface graphique permettant d’accéder aux fonctionnalités du composant
“RecorderPlayer ”.
Résumé
Réalité augmentée pour l’Aide à la Navigation. Le cas particulier de la naviga-
tion maritime.
Ces travaux de thèse se situent au croisement de plusieurs domaines que sont la Réalité
Augmentée, la Réalité Virtuelle, les systèmes d’information géographique, le génie logiciel,
le traitement d’image et les sciences humaines et sociales. Le premier axe de ce mémoire
concerne les apports relatifs à l’amélioration des connaissances du domaine de la réalité
augmentée par une approche centrée utilisateur. Nous proposons, basés sur nos définitions
et sur les travaux en réalité virtuelle, notre modèle d’interaction et d’immersion en réalité
augmentée nommé 3i2RA. L’axe suivant permet de préciser la problématique liée à l’uti-
lisation d’un système d’aide à la navigation par un état de l’art spécifique aux systèmes
d’information géographique. Nous présentons dans ce chapitre les systèmes d’information
géographique particulièrement destinés à l’aide à la navigation. Le troisième axe présente
nos apports méthodologiques concernant la conception d’un outil d’aide à la navigation.
L’objectif est de proposer une démarche permettant d’interfacer la modélisation des activi-
tés des navigateurs et une méthode agile de développement d’un logiciel. Enfin, le dernier
axe présente nos apports technologiques mis en œuvre afin de réaliser les fonctionnalités
demandées.

Mots clés :
réalité augmentée, environnement mixte, système d’information géographique, ECDIS, ana-
lyse d’image, réalité virtuelle, méthode agile, fusion de données.

Abstract
Augmented Reality for Navigation Assistance. The special case of shipping.
This thesis was therefore situated at the crossroads of several fields such as Augmented
Reality, Virtual Reality, geographic information systems, software engineering, image pro-
cessing and human and social sciences. The first section of this thesis concerns contributions
relating to improving knowledge in the field of augmented reality based on a user centred
approach. We then propose, based on our definitions and work on virtual reality, our model
of interaction and immersion in augmented reality known as 3i2RA. In the following section
we describe the issue linked to using a computer assisted navigation system with a state
of the art specific to geographical information systems. In this chapter we present geogra-
phical information systems and more particularly those aimed at sailing. The third section
presents our methodological contributions regarding the design of a computer assisted na-
vigation tool. The aim is to provide a method enabling the modelling of sailors’ activities
to be interfaced with an agile software development method. The final section presents the
technological contributions we implemented so as to create the requested functionalities.

Key words :
Augmented reality, mixed environment, geographic information system, ECDIS, image pro-
cessing, virtual reality, agile software development, data fusion.

Vous aimerez peut-être aussi