These Hugues
These Hugues
SIGMA :
Système d’information Géographique Maritime
Augmentée
Olivier Hugues
THÈSE
présentée à
L’UNIVERSITÉ BORDEAUX I
ÉCOLE DOCTORALE DE MATHÉMATIQUES ET INFORMATIQUE
par Olivier Hugues
- 2011 -
“Une idée simple et fausse aura toujours plus
de poids qu’une idée vraie et complexe.”
Montesquieu.
À Delphine...
Remerciements
Difficile de savoir ce que j’aurais fait si j’avais suivi les conseils de nombreux enseignants du
collège de ne pas m’inscrire dans une filière professionnelle arguant que cette voie était dédiée
à ceux qui n’avaient pas trouvé place ailleurs. Oui ce fut difficile d’entendre le responsable
pédagogique dire “ quel gâchis ” à mon sujet. Oui, le système scolaire me permettait d’aller
dans une filière générale ou technologique. Oui, le passage d’un élève dans l’enseignement
professionnel était (l’est encore ?) vu comme un échec de la part des enseignants. Oui, j’ai
choisi délibérément de poursuivre mes études dans une filière professionnelle me menant
ainsi à la préparation de diplômes souvent mal perçus.
Difficile de savoir ce que j’aurais fait si je n’avais pas rencontré des individus extraordi-
naires durant mes études. Plus qu’une simple participation à mon enseignement, ils ont
énormément participé à mon éducation. Je pense par exemple à monsieur Faure (collège), à
monsieur Meyer qui m’a suivi pendant quatre ans, du BEP au baccalauréat professionnel ou
à madame Houet (BTS) qui m’a indiqué l’existence des prépa ATS. Comment aussi ne pas
penser à monsieur Bonnet qui, me voyant errer dans les couloirs en fin de prépa, à trouvé les
mots pour me motiver à passer les concours alors que j’y avais pleinement renoncé... Je n’ai
jamais eu l’occasion de lui parler de cela, et je sais qu’il ne pourra jamais lire ces quelques
mots... Que dire de Nadine Couture sans qui je n’aurais peut-être jamais découvert la réa-
lité augmentée. Impossible non plus de ne pas mentionner la présence quasi quotidienne et
constante de Jean-Marc Cieutat ainsi que les conseils avisés de Pascal Guitton qui m’ont
permis de mener à bien ce travail de thèse. Il est certain que ce présent document n’aurait
pas eu la même qualité si Guillaume Moreau et Indira Mouttapa-Thouvenin n’avaient pas
accepté de le rapporter et la soutenance aurait assurément eu une autre dimension si Julián
Flóres n’avait pas présidé le jury et si Ronan Golhen et Yves Le Thérisien n’y avait pas
participé.
Difficile de savoir ce que j’aurais fait si je n’avais pas eu un entourage familial exceptionnel.
Malgré certaines périodes difficiles, comme pour tout le monde, le soutien moral et matériel
de ma mère et de mon beau-père a été extraordinaire. Leur appui sans faille, tant d’un
point de vue personnel que professionnel m’a permis d’avancer avec l’agréable sensation de
toujours être épaulé par ceux qui compte. Le fait de m’avoir fait comprendre très tôt que je
travaillais pour moi et le fait d’avoir très vite compris que j’avais intégré ce précepte montre
une remarquable écoute et une attention toute particulière qu’il est nécessaire de souligner.
Difficile de savoir ce que j’aurais fait si je n’avais pas rencontré des amis remarquables. Je
pense par exemple à Fabrice Fulconnis (BEP/Bac) qui a toujours su que j’y arriverais avant
que je le sache moi-même. Je pense aussi à Goffrey Gaillardon avec qui le projet “ truffe
” (BTS) n’aurait pas était ce qu’il a été. Comment ne pas évoquer les différents projets
ESTIA effectués avec Jean-Sébastien Ghiglione et Florent Duchiron. Puisse nos relations
perdurer. Il est inutile de vouloir cacher l’empreinte laissée par les thésards de l’ESTIA dans
ce document. Qu’il s’agisse de moments de détente à jouer aux cartes ou de discussions
plus passionnées, ils ont tous participé à offrir un cadre social accueillant et généreux me
permettant d’en extraire une certaine motivation parfois disparue. Les discussions presque
quotidiennes avec Sébastien Bottecchia, me faisant ainsi profiter de son expérience, m’ont
permis d’appréhender certaines choses que j’aurais appris à mes dépens s’il n’avait pas été
là. Les réflexions entamées avec Olivier Nannipiéri m’ont permis d’initier une approche de
la réalité augmentée jusque-là réservée à la réalité virtuelle et j’espère que nos discussions
passionnantes vont continuer !
Difficile de savoir ce que j’aurais fait si je n’avais pas intégré au cours de mes différentes
formations des entreprises ouvertes et souples, mais surtout professionnelles et ambitieuses.
Qu’il s’agisse de travail d’été ou de stage, la source Sainte-Cécille ou de Lafarges Platres,
Carpenter SAS ou Intexalu, toutes m’ont été utiles aux différentes étapes de ma formation.
Concernant MaxSea, la convivialité de l’ensemble du personnel ainsi que de l’équipe diri-
geante m’a permis d’évoluer en toute quiétude au cours de cette thèse. Mathieu Jacquinot,
Olivier Robin, Sébastien Muhr, Pierre Aubeuf, Vincent Borry ou encore Cédric Duval ont
énormément participé à la mise en application de ces travaux de thèse malgré leurs respon-
sabilités respectives. Concernant l’ESTIA, le cadre de travail à échelle humaine m’a permis
d’y trouver une place et chacun des permanents y est certainement pour quelque chose.
Difficile de savoir ce que j’aurais fait si je ne t’avais pas rencontré il y a maintenant dix ans
tandis que je ne m’y attendais absolument pas. Tu m’as connu alors que je n’avais pas le
bac, tu m’as vu aujourd’hui soutenir ma thèse. Il m’est impossible de savoir ce que tu as
enduré pendant ces dix longues années d’étude. Tu es allée jusqu’à tout lâcher, travail, amis
et famille juste pour me suivre et rester ainsi proche de moi. Je ne saurais jamais prendre
la mesure de tous les sacrifices que tu as faits, car tu prétendais, en toute simplicité, que
c’était normal. Ton abnégation infaillible, ta profonde affection, ton altruisme incontestable,
ta bienveillance évidente, ta bonté indiscutable, ton désintéressement indubitable et ta
dévotion indéniable envers moi font de toi aujourd’hui, la personne que j’ai de plus cher au
monde. Sache que chaque ligne de cette thèse t’est dédiée, car tu es la seule personne, au
cours de toutes ces années, qui ne m’a pas laissé tomber. Et pour tout cela, Delphine, je te
dis merci. Merci.
4
Résumé
Réalité augmentée pour l’Aide à la Navigation.
Cette thèse a été réalisée sous convention CIFRE dans le cadre d’un partenariat entre la
société MaxSea et le pôle recherche de l’ESTIA. Cette thèse a été dirigée par Pascal Guitton
(Professeur des Universités à Bordeaux I), codirigée par Jean-Marc Cieutat (Enseignant-
Chercheur à l’ESTIA) et encadrée par Ronan Golhen (docteur et directeur technique de
MaxSea).
La demande exprimée initialement par la MaxSea, éditrice de logiciel de cartographie élec-
tronique d’aide à la navigation maritime, évoquait la nécessité d’améliorer la sécurité à bord
des navires, autant d’un point de vue matériel et environnemental qu’humain par l’utilisa-
tion de technologies innovantes. L’augmentation du trafic maritime amène les acteurs du
domaine à proposer de nouvelles solutions pour améliorer la sécurité afin que les différentes
activités comme la pêche, le commerce ou la plaisance puissent cohabiter. Dans ce contexte,
les éditeurs de logiciels maritimes visent à développer des plateformes toujours plus évoluées,
en proposant des environnements logiciels très riches. L’utilisateur doit composer avec cet
outil souvent complexe pour lequel les erreurs d’utilisation ne sont pas à exclure. Comme
le souligne Jie et Xian-Zhong (2008), les causes d’erreurs menant à l’accident maritime
souligne clairement le caractère perfectible des systèmes d’aide à la navigation. Ces travaux
de thèse se situent au croisement de plusieurs domaines que sont la Réalité Augmentée, la
Réalité Virtuelle, les systèmes d’information géographique, le génie logiciel, le traitement
d’image et les sciences humaines et sociales. Le premier axe de ce mémoire concerne les ap-
ports relatifs à l’amélioration des connaissances du domaine de la réalité augmentée. Nous
présentons dans ce chapitre les fondements de la réalité augmentée ainsi que ses origines,
sa finalité et notre définition technique. Par une approche centrée utilisateur, nous propo-
sons ensuite de souligner les implications de la réalité augmentée sur ce dernier en tant
qu’environnement perçu à la fois directement via ses sens et via des interfaces comporte-
mentales. Nous proposons ensuite, basés sur nos définitions et sur les travaux en réalité
virtuelle, notre modèle d’interaction et d’immersion en réalité augmentée nommé 3i2RA.
L’axe suivant permet de préciser la problématique liée à l’utilisation d’un système d’aide
à la navigation par un état de l’art spécifique aux systèmes d’information géographique.
Nous présentons dans ce chapitre les systèmes d’information géographique et plus particu-
lièrement ceux destinés à l’aide à la navigation. Nous illustrons la chaîne de traitement des
informations depuis l’acquisition jusqu’à l’affichage. Puisqu’il s’agit d’utiliser ces systèmes
pour l’aide à la navigation, nous présentons les différents modèles génériques de navigation
qui ont été proposés dans la littérature et nous détaillons plus particulièrement le modèle
apte à prendre en compte les spécificités des situations rencontrées dans le domaine mari-
time. Nous proposons ensuite un tour d’horizon des systèmes d’information géographique
utilisant la réalité augmentée que nous avons décidé de ranger en deux catégories selon
l’objet des augmentations. Enfin, nous détaillons les systèmes d’information géographique
conçus pour être utilisés en navigation maritime et nous montrons les difficultés rencontrées
lors de l’utilisation de tels systèmes. Des hypothèses sont proposées concernant les amélio-
rations possibles pour ces systèmes dont la principale et de proposer à l’utilisateur dans une
vue unique des informations issues d’une approche globale et locale de la tâche de naviga-
tion. Le troisième axe présente nos apports méthodologiques concernant la conception d’un
outil d’aide à la navigation. L’objectif est de proposer une démarche permettant d’interfacer
la modélisation des activités des navigateurs et une méthode agile de développement d’un
logiciel. L’approche permet de faire le lien entre la modélisation par “tâches” des actions
d’un individu et la description de futures fonctionnalités logicielles servant de point d’entrée
à la méthode agile la plus pratiquée, nommée “Scrum”. Pour illustrer notre approche, après
une présentation rapide de la méthode “Scrum”, nous proposons un cas pratique d’appli-
cation pour lequel nous nous sommes rapprochés de la Société Nationale de Sauvetage en
Mer (SNSM). Enfin, le dernier axe présente nos apports technologiques mis en œuvre afin
de réaliser les fonctionnalités demandées. Nous allons présenter dans ce chapitre l’architec-
ture logicielle basée sur trois composants principaux et l’architecture matérielle de notre
Système d’Information Géographique Maritime Augmenté, SIGMA. Le premier composant
fournit les services nécessaires aux connexions du système d’information géographique avec
tous types de caméra vidéo. Le deuxième composant s’occupe de la création d’un espace
mixte en utilisant la vidéo fournie par le composant précédent et les données numériques
géoréférencées du système d’information géographique. Enfin, le troisième composant per-
met d’enregistrer et de rejouer toutes les données numériques synchronisées avec la vidéo.
Nous présentons un cadre d’application de SIGMA pour la surveillance du trafic maritime.
Mots-clés :
Réalité augmentée, environnement mixte, système d’information géographique, ECDIS,
analyse d’image, réalité virtuelle, méthode agile, fusion de données.
8
Abstract
Augmented Reality for Navigation Assistance.
This thesis was part of a CIFRE agreement between MaxSea and the ESTIA-Research labo-
ratory. It was directed by Pascal Guitton (University Lecturer at Bordeaux I), co-directed
by Jean-Marc Cieutat (Lecturer and Researcher at ESTIA) and supervised by Ronan Gol-
hen (PhD and technical director at MaxSea). The request initially made by the company
referred to the need to improve safety on board vessels, from a hardware, environmental and
human point of view. MaxSea is an electronic computer assisted navigation map publisher.
This thesis was therefore situated at the crossroads of several fields such as Augmented
Reality, Virtual Reality, geographic information systems, software engineering, image pro-
cessing and human and social sciences. The increase in sea traffic has led players in the field
to propose new solutions to improve safety so that different activities like fishing, trade
and yachting can co-exist. In this context, maritime software publishers are aiming to de-
velop increasingly sophisticated platforms with very rich software environments. The user
must deal with this often very complex tool for which user error cannot be excluded. As
highlighted by Jie et Xian-Zhong, it is possible to synthesise the causes of errors leading
to sea accidents according to different categories and this synthesis clearly emphasizes the
perfectible nature of computer assisted navigation systems. The first section of this thesis
concerns contributions relating to improving knowledge in the field of augmented reality.
In this chapter we present the basis of augmented reality as well as its origins, its purpose
and our own technical definition. Based on a user centred approach, we then highlight the
implications of augmented reality on the user as an environment perceived both directly via
the senses and via behavioural interfaces. We then propose, based on our definitions and
work on virtual reality, our model of interaction and immersion in augmented reality known
as 3i2RA. In the following section we describe the issue linked to using a computer assisted
navigation system with a state of the art specific to geographical information systems. In
this chapter we present geographical information systems and more particularly those aimed
at sailing. We illustrate the information processing chain from acquisition to display. Since
this involves using these systems for computer assisted navigation, we present the different
generic navigation models which are proposed in the literature and we more specifically
detail the models suited to taking into account the specificities of situations encountered in
the field of sailing. We then propose an overview of geographical information systems using
augmented reality which we have decided to divide into two categories according to the
object of augmentations. Finally, we describe geographical information systems designed to
be used in maritime navigation and we show the difficulties encountered when using such
systems. Hypotheses are proposed with regard to possible improvements for these systems
which are based on providing users in a single view both global and local information with
regard to the task of sailing. The third section presents our methodological contributions
regarding the design of a computer assisted navigation tool. The aim is to provide a me-
thod enabling the modelling of sailors’ activities to be interfaced with an agile software
development method. The method links together modelling according to the “tasks” of an
individual’s actions and the description of future software functionalities acting as a point
of departure for the most widely used agile method, known as the “Scrum”. To illustrate
our method, after a brief presentation of the “Scrum”, we present a case study on the design
of a geographical information system for computer assisted navigation for which we contac-
ted the National Life Rescue Society (SNSM). The final section presents the technological
contributions we implemented so as to create the requested functionalities. In this chapter
we present the software architecture based on three main components and the hardware
architecture of our Augmented Maritime Geographical Information System or SIGMA in
French. The first component provides the services needed for all types of video camera to
connect to the geographical information system. The second component deals with crea-
ting a mixed space using the video provided by the previous component and the digital
georeferenced data from the geographical information system. Finally, the third component
enables all the digital data synchronised with the video to be recorded and replayed. We
present a SIGMA application framework for maritime traffic surveillance.
Keywords :
Augmented reality, mixed environment, geographic information system, ECDIS, image pro-
cessing, virtual reality, agile software development, data fusion.
10
Table des Matières
12
TABLE DES MATIÈRES TABLE DES MATIÈRES
Bibliographie 161
Annexes 177
1 Tests Unitaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
2 Communication avec la centrale inertielle . . . . . . . . . . . . . . . . . . . 177
3 Format d’enregistrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
13
Liste des Figures
3.1 Chaîne de traitement classique des données d’un système d’information géo-
graphique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.2 Modèle spatio-temporel de la chaine de traitement des données d’un système
d’information géographique utilisant un système dépendant de la position et
de l’orientation de l’utilisateur. . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.3 Le modèle de navigation (traduit et adapté) de Wickens et Prevett (1995)
qui représente la navigation locale et globale. . . . . . . . . . . . . . . . . . 75
3.4 Exploration de données géographiques par modification du point de vue des
données. Application proposée par Liarokapis et al. (2005). Cas de compré-
hension augmenté. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.5 Visualisation de données géographiques et interactions. Application proposée
par Hedley et al. (2002) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.6 Métaphores d’interaction (exemple du slider) proposée par Asai et al. (2008) 77
3.7 Exploration d’image depuis la cartographie proposée par Reitmayr et al.
(2005). Réalité documentée. . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.8 Deux exemples d’applications de réalité augmentée pour l’aide à la navigation
en environnement intérieur proposée par Reitmayr et Schmalstieg (2003a).
Cas de visibilité augmentée. . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.9 Une vue de monuments depuis le pont de Westminster (Londres) proposée
par Radburn (2006). Cas de réalité à compréhension augmentée. . . . . . . 80
LISTE DES FIGURES LISTE DES FIGURES
16
LISTE DES FIGURES LISTE DES FIGURES
6.1 Format d’une phrase NMEA délivrée par la centrale inertielle. . . . . . . . . 178
6.2 Implémentation de la récupération des données d’attitude du bateau dans le
composant “IO”. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
6.3 Diagramme de classes du composant RecorderPlayer. . . . . . . . . . . . . . 179
6.4 Diagramme de classe du composant AugmentedReality. . . . . . . . . . . . . 180
6.5 Diagramme de classes du composant VideoCamera. . . . . . . . . . . . . . . 181
6.6 Diagramme de classe de l’implémentation de la solution proposée par Auto-
matic Sea Vision (2011) dont l’algorithme d’analyse est présenté par Samama
(2010) dans le composant “Mobile” du système d’information géographique. 182
6.7 Interface graphique permettant d’accéder aux fonctionnalités du composant
“RecorderPlayer ”. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
17
Liste des Tableaux
4.1 Exemple d’un “backlog” dans lequel le PO ajoute les futurs développements. 96
4.2 Interview d’un patron de la SNSM. . . . . . . . . . . . . . . . . . . . . . . . 104
4.3 Interview d’un canôtier de la SNSM. . . . . . . . . . . . . . . . . . . . . . . 105
4.4 Situations de navigation extraites après entretiens. . . . . . . . . . . . . . . 106
4.5 Coefficients permettant de définir la règle de calcul de la priorité d’une tâche. 111
4.6 Proposition d’une liste de fonctionnalités permettant de guider le PO dans
l’ajout des “backlog item”. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Introduction Générale
Sommaire
Contexte général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Constat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Structure du mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Contexte général
Ces travaux de thèse se situent au croisement de plusieurs domaines que sont la Réalité
Augmentée, la Réalité Virtuelle, les systèmes d’information géographique, le génie logiciel,
le traitement d’image et les sciences humaines et sociales. La demande exprimée initiale-
ment par la société MaxSea 1 évoquait la nécessité d’améliorer la sécurité à bord des navires,
autant d’un point de vue matériel et environnemental qu’humain. Avec un environnement
déjà considéré comme hostile, l’augmentation constante du trafic maritime complique la
situation et aux risques coutumiers s’ajoutent des dangers spécifiques à certaines zones du
globe comme les actes de piraterie par exemple. Avec l’évolution de l’informatique, toujours
plus de navires sont équipés d’ordinateurs assez puissants pour apporter au personnel de
bord une quantité d’informations substantielles non négligeable. Ces systèmes sont utilisés
pour permettre une progression dans des environnements hostiles que sont les océans, les
mers ou les rivières. La société MaxSea a bien anticipé cette évolution et a fondé sa réputa-
tion depuis 1984 sur le développement de logiciels exploitant les capacités de l’informatique
embarquée. Ces logiciels, nommés ECDIS, pour “Electronic Chart Display and Information
System” sont soumis à la réglementation définie par l’Organisation Maritime Internation-
nale (OMI). L’OMI décrit dans la Résolution A817/19 que “les ECDIS ont pour principal
objectif de contribuer à renforcer la sécurité de la navigation” (sauvegarde de la vie en mer,
sauvegarde des biens et de l’environnement). Ces outils logiciels font partie d’une catégorie
plus générale, les systèmes d’information géographique (SIG), que nous détaillerons
dans le Chapitre 3. L’environnement maritime arrive trop souvent à prendre en défaut les
navigateurs. C’est en effet ce que Frod (2006) a constaté dans l’analyse des incidents et ac-
cidents maritimes pour le compte de l’Organisation Maritime Internationnale (OMI). Ces
études ont montré que 90% des blessés à travers le monde lors d’incidents ou d’accidents liés
au domaine maritime sont causés par des erreurs humaines et plus particulièrement lors de
l’utilisation d’outils d’aide à la navigation. Concernant cette dernière catégorie, les erreurs
sont à attribuer à un manque de connaissance de l’environnement de la part de l’équipe de
pont et aux erreurs de conception et/ou d’utilisation de l’outil d’aide.
Constat
Dans ce contexte, les éditeurs de logiciels maritimes visent à développer des plateformes
toujours plus évoluées, en proposant des environnements logiciels très riches et une mise à
jour en “temps réel” de nombreuses informations. Ces sociétés sont en nombre conséquent
à être positionnées sur le marché du logiciel de navigation maritime embarqué et nous
invitons le lecteur à se rendre en Section 5 du Chapitre 3, afin d’en avoir un aperçu détaillé.
C’est avec ces logiciels d’aide à la navigation souvent complexe pour lesquels les erreurs
d’utilisation ne sont pas à exclure que l’utilisateur doit composer. De plus, ces outils étant
conçus sur le même modèle que la traditionnelle carte papier, la plupart profitent peu
des avantages de l’informatique. Certes, l’enregistrement systématique des données ou la
rapidité du changement de l’échelle de la cartographie rend de nombreux services, mais
en quoi l’utilisation de cartes électroniques limite ou élimine-t-elle les problématiques de
l’utilisation de la carte papier pour la navigation proprement dite ? Comme le souligne Jie
et Xian-Zhong (2008), il est possible de synthétiser les causes d’erreurs menant à l’accident
maritime selon différentes catégories (détaillées en Section 5.3.1), cette synthèse soulignant
clairement le caractère perfectible des systèmes d’aide à la navigation.
Problématique
La navigation, en terme général, est définie par Wiener et al. (2008) comme l’action de plani-
fier et de suivre un parcours vers un but. Différents modèles ont été développés concernant
la navigation et la stratégie mise en œuvre et les auteurs s’accordent à dire qu’il existe
deux stratégies principales : la navigation égocentrée 2 et la navigation allocentrée 3 . Nous
reviendrons sur les différents modèles de navigations proposés dans la littérature en Sec-
tion 4.1 du Chapitre 3. Tous les outils d’aide à la navigation maritime actuellement en
vigeur sont des aides à la représentation de l’environnement comme carte. La finalité est de
proposer à l’individu une représentation non perceptible naturellement alors qu’il a accès
au travers de ses sens à la représentation égocentrée. Ainsi, la technologie se devait d’aider
l’individu à se construire mentalement la carte de son environnement. Cependant, Jie et
Xian-Zhong (2008) remarquent que malgré cette aide, les difficultés de navigation sont tou-
jours présentes. Comment alors, limiter les erreurs d’interprétations des informations issues
des systèmes d’aide à la navigation ? La problématique vient du fait que lors de l’utilisation
en situation d’un outil, les sources d’informations pour l’utilisateur ne sont pas identiques
(Figure 1.1), et le passage de l’une à l’autre peut entraîner des “ruptures de contexte”.
Loin d’une problématique spécifique à la navigation, les chirurgiens par exemple doivent
parfois extraire un avis médical en utilisant plusieurs sources d’information (imagerie à
raisonnance magnétique, radio, leur connaissance, etc.). Les chercheurs de pétrole doivent
composer avec différentes carte géologiques sous différentes formes. D’un point de vue spé-
cifique à la navigation, la difficulté semble provenir de la mise en correspondance entre les
différents modèles mentaux (A 6= B 6= C) qui découlent de chaque source pour en extraire
une représentation mentale unique et cohérente.
2. Stratégie de navigation mise en œuvre par un individu visant à utiliser les informations perceptibles
depuis son point de vue.
3. Stratégie de navigation mise en œuvre par un individu visant à utiliser les informations obtenues
depuis une carte générée mentalement. On parle aussi de carte cognitive.
24
Chapitre 1. Introduction Générale
Source d’in-
formation
Cartographie Environnement
Connaissances
éléctronique réel
Perception Perception
(sémiologique) (phénoménologique)
Représentation
Mentale
Figure 1.1: Les différentes sources d’informations et leurs implications sur l’utilisateur.
Contributions
Conceptuelles
Dans ces travaux de thèse, nous avons été amenés à utiliser la réalité augmentée ou la
virtualité augmentée et nous expliquerons en quoi il est possible de ne pas prendre en
compte la distinction initialement soulignée par Milgram et al. (1994) entre ces deux prin-
cipes. Après une analyse des différentes définitions de la réalité augmentée proposées dans
la littérature, nous proposons notre définition fonctionnelle et technique appuyée par une
taxonomie permettant de décrire et de classifier les environnements à partir de leur utilisa-
tion fonctionnelle. Cette contribution conceptuelle a pour finalité de proposer une définition
suffisamment large pour ne pas être limitative et suffisamment précise pour avoir une por-
tée pratique. Dans cette optique, nous proposons un modèle d’interaction et d’immersion
adapté à la réalité augmentée dont la base est le modèle 3i2 présenté par Fuchs et al. (2001),
que nous avons nommé le modèle 3i2RA.
25
Chapitre 1. Introduction Générale
Structure du mémoire
La structure globale de ce mémoire se présente sous quatre axes différents. Le premier
axe, plutôt théorique, concerne les apports relatifs à l’amélioration des connaissances du
domaine de la réalité augmentée. Cet axe est présenté dans le Chapitre 2. Le deuxième
axe propose un état de l’art spécifique aux systèmes d’information géographique afin de
préciser la problématique liée à l’utilisation d’un système d’aide à la navigation. Cet axe
est présenté dans le Chapitre 3. Le troisième axe présente nos apports méthodologiques
concernant la conception d’un outil d’aide à la navigation. Cet axe est présenté dans le
Chapitre 4. Enfin, le dernier axe présente nos apports technologiques afin de réaliser les
fonctionnalités demandées. Cet axe est présenté dans le Chapitre 5. Voici les détails des
différents chapitres de ce mémoire.
Chapitre 1 Ce chapitre introductif présente le contexte ainsi que la problématique, les dif-
férentes contributions conceptuelles et pratiques de ces travaux de thèse et la structure
générale du mémoire ;
Chapitre 2 Ce chapitre propose les fondements de la réalité augmentée. Le lecteur trou-
vera dans ce chapitre la finalité de la réalité augmentée, une définition technique, une
taxonomie fonctionnelle des environnements de réalité augmentée et une classification.
Nous proposons ensuite un modèle d’interaction et d’immersion de l’utilisateur dans
ce type d’environnement dont les trois pôles principaux sont l’environnement virtuel,
l’environnement naturel et l’utilisateur. La première partie de ce chapitre concernant
la taxonomie fonctionnelle a fait l’objet des communications dans une conférence na-
tionale et dans un livre collectif international : Fuchs et al. (2010); Hugues et al.
(2011b) ;
Chapitre 3 Ce chapitre présente les systèmes d’information géographique. Après l’identi-
fication des différents composants d’un système d’information géographique ainsi que
la présentation de la chaine de traitement des données, une vue générale de la tâche
de navigation est présentée pour ensuite traiter du cas particulier de la navigation
maritime. Nous présentons un état de l’art des outils génériques d’aide à la naviga-
tion puis plus précisément pour la navigation maritime. Nous présentons ensuite les
difficultés rencontrées par l’utilisation de tels systèmes. Ce chapitre a fait l’objet d’une
communication dans un livre collectif international : Hugues et al. (2011a) ;
Chapitre 4 Ce chapitre présente la méthode pratique que nous avons mise en place afin
d’orienter nos choix de conception d’un outil d’aide à la navigation utilisant les techno-
logies de la réalité augmentée. Après un bref aperçu de la sécurité dans le domaine ma-
ritime, nous présentons une méthodologie pour laquelle nous nous sommes rapprochés
de la Société Nationale de Sauvetage en Mer. Cette méthode utilise la modélisation des
activités des individus dans le but d’extraire des caractéristiques pertinentes pour la
26
Chapitre 1. Introduction Générale
Lecture du mémoire
Afin de faciliter la lecture du mémoire, des symboles seront utilisées dont voici la légende.
27
Chapitre 2
Fondements de la Réalité
Augmentée
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Classification globale . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5 Modèle 3i2RA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Résumé
Nous présentons dans ce chapitre les fondements de la réalité augmentée. Après une brève
introduction sur le caractère inéluctable de l’avènement de la réalité augmentée, nous pré-
sentons ses origines, sa finalité ainsi qu’une définition technique. Par une approche centrée
utilisateur, nous proposons ensuite de souligner les implications de la réalité augmentée sur
ce dernier en tant qu’environnement perçu à la fois directement via ses sens et via des in-
terfaces comportementales. En nous appuyant sur la littérature, nous proposons un espace
de caractéristiques composé de quatre dimensions orthogonales que nous avons appliqué à
de nombreux systèmes connus. Nous proposons ensuite, basé sur nos définitions et sur les
travaux en réalité virtuelle, notre modèle d’interaction et d’immersion en réalité augmentée
nommé 3i2RA.
Introduction Chapitre 2. Fondements de la Réalité Augmentée
1 Introduction
Il est naturel pour l’homme de vouloir améliorer son existence pour différentes raisons
(survie, confort, recherche du bonheur, etc.). L’homme s’est cependant rapidement trouvé
limité par ses propres capacités eu égard à ses attentes et à donc mis à profit son intelligence
pour atteindre ces objectifs. L’évolution des techniques aidant, l’homme a pu satisfaire ce
besoin grâce à la maîtrise des éléments et à la transformation de la matière pour mettre
en œuvre des concepts et techniques toujours plus complexes. Sa motivation vise à voir
l’invisible, sentir l’inodore et plus généralement percevoir l’imperceptible et mettre en acte
l’inaccessible, repoussant ainsi toujours plus loin les barrières qui lui sont posées par la
nature elle-même. Si la réalité virtuelle offre une nouvelle place à l’homme à la différence
des autres représentations principalement visuelles ou sonores, mais figées du monde qu’il
a inventé jusqu’alors (peinture, sculpture, film, etc.)Fuchs et Moreau (2006, p. 1), la réalité
augmentée lui offre quant à elle la possibilité d’outrepasser ses propres limitations dans
son environnement naturel.
Même si les premières apparitions d’un tel concept surgissent il y a près de 50 ans chez Su-
therland (1965, 1968), la réalité augmentée ne peut être envisagée que depuis peu, grâce à
la miniaturisation des composants électroniques, à l’augmentation de la puissance de calcul
et à l’autonomie des ordinateurs. C’est une discipline hautement dépendante des évolutions
techniques et technologiques et c’est en partie dûe à cette dépendance que cette discipline
est encore en pleine évolution.
La réalité augmentée est par essence transdisciplinaire. Dans le domaine des sciences et des
techniques, la réalité augmentée appartient principalement au domaine des STIC (Sciences
et techniques de l’Information et de la Communication). Cependant, elle n’est pas entière-
ment incluse dans ce cadre. De nombreuses disciplines rentrent donc en jeu dans les avancées
du domaine :
Dans le domaine des sciences humaines et sociales et des sciences du vivant, l’utilisateur
est placé au centre de la démarche de développement de cette technologie.
Tous ces domaines ne seront pas abordés dans cette thèse, mais nous rappellerons lorsque
cela sera nécessaire au cours de ce mémoire la pertinence des approches de chacun. En
guise de première conclusion, nous pouvons dire que ces conditions d’évolution (verrous
informatiques et électroniques, approche ergonomique et psychologique) sont extrêmement
proches de celles de la réalité virtuelle comme l’introduction de Fuchs et Moreau (2006) le
décrit.
30
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée
À la seule lecture des auteurs que nous venons de présenter, la réalité augmentée semble être
une technologie. Pourtant, en observant la réalité augmentée selon l’axe fonctionnel, Mackay
(1993, 1998) précise qu’il est possible de la considérer comme une interface entre l’homme
et la machine. En ce sens, comme il est très courant de le faire pour les interfaces homme-
machine, un tel procédé ne peut exclure une prise en compte sérieuse des paramètres liés à
1. 1 : “Combiner le réel et le virtuel”, 2 : “interactivité en temps réel”, 3 : “recalage en trois dimensions”.
31
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée
l’utilisateur et de ceux liés à son environnement comme le précise Calvary et al. (2003). C’est
en effet ce que confirme (Auvray et Fuchs, 2007) lorsqu’il s’agit, pour un individu, d’uti-
liser un dispositif technique, “l’utilisation d’un nouveau dispositif technique modifie notre
couplage sensorimoteur avec l’environnement ; et par là même il modifie notre perception”.
Cependant, chez Milgram et Kishino (1994) ou Dubois et al. (2000), la réalité augmentée
est inscrite dans la réalité mixte. Les systèmes de réalité mixtes ou SIM 2 ont “la spécificité
d’inscrire dans l’environnement physique les interfaces entre monde physique et monde
numérique” selon Coutrix (2009). La réalité mixte intègre les termes suivants :
1. La Réalité Augmentée dont nous allons parler dans les sections suivantes ;
2. La Virtualité Augmentée dont la particularité est d’apporter des informations issues
de l’environnement naturel dans un environnement virtuel ;
3. La Réalité Mixte (ou environnement de réalité mixte) qui est un terme général pour
regrouper les deux classes précédentes ;
4. Les Interfaces tangibles décrivent les objets de l’environnement physique qui incarnent
de l’information numérique ou qui permettent de la contrôler.
La réalité augmentée et la virtualité augmentée sont considérées comme des systèmes de
réalité mixte ou par abus de langage, des systèmes mixtes, pour lesquels le concept principal
est la présence d’entités réelles dans un monde numérique et inversement. Pourtant, la réalité
augmentée semble plus proche du concept étant donné la diversité des applications qui en
découle. La confusion provient certainement du fait que le terme réalité augmentée est
utilisé indifférement qu’il s’agisse du concept ou de la technologie employée pour le mettre
en œuvre.
En outre, la lecture de la littérature nous apporte au moins une certitude : la définition de la
réalité augmentée dépend de la communauté à laquelle appartient celui qui l’énonce. D’une
part, la réalité augmentée est vue comme ayant une approche non immersive par Well-
ner (1991) ou Dubois (2001), puisqu’au lieu de proposer un environnement complètement
modélisé, elle propose d’utiliser l’outil informatique pour modifier le monde perçu par l’in-
dividu. D’autre part, la réalité augmentée n’est pas vue comme une opposition à la réalité
virtuelle mais comme une extension pour laquelle il s’agit de mixer des informations réelles
et virtuelles dans une même scène comme Azuma (1997) le décrit.
32
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée
Jacob et al. (2008) ont proposé un cadre d’analyse avec lequel ils explorent les différents en-
vironnements mixtes afin de dégager une utilisation commune des capacités humaines liées
avec le monde physique, le corps et l’environnement social. Cependant, l’intérêt des envi-
ronnements mixtes étant leur capacité à ne pas reproduire fidèlement la réalité comme le
souligne Dourish (2001), les auteurs ont proposé six facteurs comme le pouvoir d’expression,
l’efficacité, l’ergonomie ou l’accessibilité permettant de pondérer l’exploitation du monde
physique. Cette classification permet de souligner le grand nombre de possibilités d’inter-
action engendrées par les systèmes mixtes. Mackay (1993) propose une classification des
environnements de réalité mixte dont le dénominateur commun est la cible des augmenta-
tions. Les différentes cibles sont les utilisateurs, les objets d’interaction et l’environnement,
découpage repris ensuite par Calvary et al. (2003) pour spécifier une classification de diffé-
rentes interfaces. Dubois et al. (1999) étend cette classification en introduisant une notation
de conception nommée ASUR, élargie ensuite (Dubois et al. (2003)) dont la classification
comprend l’utilisateur, l’adapteur 3 , le système et les entités réelles. Plus tard, Renevier
(2004) définit les modes d’interaction comme étant soit passif (déterminé par le système)
soit actif (déterminé par l’utilisateur). La création, l’accès, la modification et la destruction
des liens sont dépendants du mode d’interaction.
Benford et al. (2005) ont choisi d’analyser les mouvements de l’utilisateur afin d’en extraire
un cadre basé sur les mouvements attendus, les mouvements capturés et les mouvements
souhaités. En s’appuyant sur la théorie de l’action de Norman (1986), les auteurs proposent
de dissocier les systèmes qui augmentent l’exécution et les systèmes qui augmentent l’éva-
luation. Plus tard, Milgram et Kishino (1994) proposent une classification technologique
maintenant bien connue sous le nom de « continuum de réalité-virtualité ». Ils s’attachent à
discrétiser et classifier l’environnement selon quatre catégories. Ce continuum suppose qu’il
existe un passage progressif de la réalité à la réalité virtuelle et inversement (Figure 2.1).
Cette approche n’est pas reniée par Dubois et al. (2000) lorsqu’ils proposent de définir
deux continua appliqués à l’interaction et que les auteurs nomment le continuum de réa-
lité augmentée et le continuum de virtualité augmentée. La différence réside dans le fait
que l’objectif n’est pas de classifier les dispositifs d’affichage comme c’est le cas pour Mil-
gram mais les interactions selon six groupes possibles (clavier, interface graphique, gesture,
tangible, incarné) proposés par Fishkin et al. (1998).
Qu’elle soit pour les dispositifs d’affichage ou pour les interactions, l’utilisation d’un conti-
nuum implique plusieurs postulats. Ces postulats, qui seront discutés, sont les suivants :
3. Les adapteurs transfèrent les données d’un monde à l’autre et peuvent être en entrée ou en sortie du
système.
33
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée
4. Terme générique qui désigne, dans notre contexte, un environnement dont l’existence est possible en
même temps qu’un autre environnement.
34
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée
La Réalité
Nature Artefacts
(la terre, les (Les voitures, la
animaux...) réalité augmentée...)
Une autre approche consiste à considérer que la réalité et la virtualité s’opposent en consti-
tuant deux mondes séparés : il y a alors exclusion (Figure 2.3). D’un côté, il y aurait le
monde réel, de l’autre côté, le monde des simulacres de Baudrillard (1995) ou de Lebrun
(1996). Ces deux mondes sont incompatibles car le monde des simulacres tend à remplacer
la réalité : “L’image ne peut plus imaginer le réel, puisqu’elle l’est” (Baudrillard (1981)).
Nature Artefacts
(la terre, les (Les voitures, la
animaux...) réalité augmentée...)
35
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée
Réalité Virtualité
Figure 2.4: Compossibilité entre réalité et virtualité.
36
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée
Pour le sujet qui utilise une interface produisant un environnement augmenté, la distinction
entre réalité et virtualité ne tient pas car la signification qu’il confère à son environnement
est globale : l’information virtuelle ne vient pas s’ajouter à l’information réelle, elle en mo-
difie sa structure générale. Puisque tous les éléments perçus sont liés les uns aux autres
de manière essentielle comme le souligne Köhler (1929), l’utilisateur d’une interface de réa-
lité augmentée fait face à une réalité hybride, mixte et non à deux environnements qui se
superposeraient par un effet de surimpression l’un sur l’autre, le premier étant augmenté
quantitativement par le second. Kant (1787) note que notre faculté de percevoir par les sens
et notre jugement à propos du réel ne nous livrent pas la réalité en soi. Le noumène, c’est-
à-dire la réalité telle qu’elle est indépendamment du sujet qui la perçoit et qui la pense, est
inaccessible : non seulement nos sens ne nous permettent pas d’accéder à la réalité en soi (e.g.
les couleurs n’existent peut-être pas en soi, mais pour nous), mais notre faculté de connaître
procède en appliquant des catégories (e.g. la causalité) qui ne sont pas des propriétés du
réel mais de notre manière de connaître le réel. Ainsi, nous n’avons pas accès à une réalité
absolue, mais à la réalité telle qu’elle nous apparaît : le phénomène. Le pas était décisif
mais insuffisant : puisque le réel est inconnaissable, comment pourrions-nous raisonnable-
ment encore nous y intéresser ? L’important serait donc moins d’appréhender une réalité
absolue que l’expérience subjective que nous présente un phénomène. Centrée sur le phé-
nomène, la phénoménologie, initiée par Husserl (1992), trouve un écho chez Merleau-Ponty
(1945) susceptible d’éclairer la compréhension de la réalité augmentée. Pour l’exprimer sim-
plement, le sens de ce que nous percevons (la réalité ou la réalité augmentée) n’est pas une
propriété de ce que nous percevons : le réel ne nous informe pas, c’est le sujet qui l’informe,
c’est-à-dire qui lui donne une forme, un sens. Comme c’est le sujet, “en surgissant, qui fait
paraître sens et valeur dans les choses, et comme aucune chose ne peut l’atteindre qu’en se
faisant par lui sens et valeur, il n’y a pas d’action des choses sur le sujet, il n’y a qu’une
signification” écrit Merleau-Ponty (1945). En effet, le réel n’est pas constitué d’une somme
d’informations que nous pourrions augmenter, mais d’une configuration signifiante pour un
sujet. L’information est une abstraction et n’est jamais perçue dans son hypothétique va-
leur objective et quantifiable par le sujet : “Je ne perçois pas seulement des choses [...]. Ce
ne sont pas seulement des valeurs spatiales et chromatiques que le fonctionnement nerveux
distribue, mais encore des valeurs symboliques” écrit encore Merleau-Ponty (1945). En ce
sens, affirmer que la réalité est augmentée n’a pas de sens pour l’expérience subjective. Il
serait plus pertinent d’affirmer que le dispositif technique de réalité augmentée offre au sujet
de nouvelles significations en modifiant la structure signifiante des éléments qu’il perçoit.
Cette perception mène justement à la création d’une représentation mentale. En somme,
fondamentalement, ce qui est médiatisé dans la réalité augmentée, c’est la représentation
mentale que l’utilisateur crée à partir des stimuli produits par la machine. La réalité aug-
mentée n’est pas seulement, comme l’affirment Milgram et Kishino (1994), a « non-direct
viewing of a real object » car les processus perceptifs produisent des processus cognitifs
qui produisent chez l’utilisateur une représentation mentale qui ne peut pas être réduite
à une perception passive de stimuli, mais qui est une construction active de la part de
l’utilisateur comme le souligne le modèle proposé par Fuchs et al. (2001) ou différemment
par Thouvenin (2009). En clair, le continuum de Milgram et Kishino (1994) adopte une
approche technocentrée qui semble négliger le rôle de l’utilisateur dans la construction de
l’environnement augmenté. C’est pour cela que nous avons décidé de définir principalement
la réalité augmentée par sa finalité.
37
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée
38
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée
on ne peut pas « seulement » s’employer à mieux percevoir puisque la perception n’est pas
une finalité en soit, mais un moyen d’atteindre un objectif d’action d’après Bergson (1939).
En effet, à l’instar de la réalité virtuelle, l’augmentation de la réalité peut répondre à deux
objectifs pour l’utilisateur : favoriser la compréhension et la maîtrise du réel et donc, une
perception ou action augmentée de la réalité d’une part et, d’autre part, proposer un en-
vironnement nouveau, ou imaginaire, dont la finalité ne semble obéir ni à une exigence de
l’ordre de la connaissance, ni à une exigence d’ordre pratique mais plutôt de l’ordre de
l’imaginaire, du créatif ou de l’artistique. La finalité de la réalité augmentée que nous avons
présentée plus haut permet donc de distinguer deux cas.
Nous retenons que le premier cas est caractérisé par une imitation ou une
symbolisation de certains aspects du monde réel, alors que le deuxième cas
est caractérisé par la création d’un environnement imaginaire.
C’est sur la base de cette distinction qu’il est possible de proposer une taxonomie fonction-
nelle de la réalité augmentée. Nous proposons donc de décomposer la réalité augmentée en
deux fonctionnalités distinctes (Figure 39).
Réalité Augmentée
Environnements Perception/Action
Imaginaires Augmentée de la Réalité
39
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée
(a) La scène de référence avec le stylo cachant la (b) La scène après traitement avec le stylo ne ca-
carte. chant plus la carte.
D’un point de vue technique, il est possible de différencier la réalité augmentée de la réalité
diminuée (on efface le stylo ou on reconstruit la carte ?). La réalité diminuée utilise un
40
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée
principe maintenant bien connu de retouche d’image dont la particularité ici est d’être
exécuté en temps réel. D’un point de vue fonctionnel, l’objectif de la réalité diminuée est
identique à celui de la réalité augmentée qui est d’offrir à l’utilisateur un environnement que
ses propres sens ne lui permettent pas d’atteindre en rectifiant la signification de ce qu’il
perçoit. De la même manière qu’un ajout d’information permet de mieux percevoir notre
environnement, la suppression d’éléments négligeables, gênants ou superflus a les mêmes
objectifs. En ce sens, la réalité diminuée est une des formes de réalité augmentée. Elle est
plus particulièrement intégrée à la fonctionnalité de “substitution du réel par le virtuel”,
sous forme locale, que nous avons présenté en Section 2.5.
Héritée de la conception pragmatique de James (1907), Bergson (1939) insiste sur la nature
même de notre perception et de toute recherche d’informations dans le réel : “la perception
n’est jamais désintéressée, la connaissance n’est jamais qu’un moyen de mieux agir dans
le réel”. L’être humain semble cependant avoir une faculté qui paraît pouvoir échapper
en partie à cette loi : l’imagination. En effet, on peut raisonnablement admettre que la
production d’images mentales ne répond pas à un objectif pratique même si ce que nous
imaginons a des effets volontaires ou non sur notre perception et notre action sur le réel.
Il se trouve, précisément, que la réalité augmentée, comme la réalité virtuelle, sont en
mesure de produire des environnements qui ne sont pas assujettis à une exigence pratique.
Dans de tels cas, la réalité augmentée propose des environnements qui nous présentent
non pas le réel tel qu’il est perçu – en augmentant le nombre d’informations que nous ne
percevons pas mais, qui, pourtant, sont bien présentes dans le réel – mais le réel tel qu’il
pourrait être ou tel qu’il a été, selon la variation des paramètres de temps et d’espace. Dans
ce cas, il est nécessaire d’identifier les environnements sur la base des valeurs possibles
de ces paramètres afin d’en dresser une classification. L’objectif est donc de coupler le
“temps” T et la “modalité” M . Il s’agit donc de lister touts les types d’imagination distincts,
en ayant deux variables : la variable temps et la variable modale. Pour cela, nous nous
appuierons sur la sémantique la plus répandue pour ce type d’analyse qui est la sémantique
“des mondes possibles” développée par Kripke (1959). Nous allons donc appliquer cette
analyse à la réalité augmentée. Nous utiliserons donc la logique modale “contrefactuelle” qui
autorise la variable modale à prendre les valeurs “factuel” et “contrefactuel” (Tableau 2.1).
Une proposition contrefactuelle prend la forme d’une phrase conditionnelle, telle que “si...
alors...”, qui indiquerait ce qui serait vrai si l’antécédent avait eu lieu. Nous la préférons à
la sémantique classique pour laquelle la variable modale peut prendre les valeurs possible,
impossible, contingente ou nécessaire. La variable modale impossible implique que l’être
humain soit capable d’imaginer l’impossible, ce qui est pourtant contradictoire.
Variable temporelle
Variable modale
Passé
Factuel
Présent
Contrefactuel
Futur
Tableau 2.1: Description des valeurs des deux variables temporelle et modale.
41
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée
Imaginer l’impossible proprement dit parait donc être une chose bien plus délicate qu’ima-
giner le contrefactuel, car cela implique que l’on puisse imaginer n’importe quoi, sans limi-
tations. Ne sont donc pas contradictoires les cas suivants, que nous avons sélectionnés pour
notre classification et pour lesquels nous proposons un exemple d’application s’il existe :
Imaginer le factuel passé : dans notre espace-temps, il s’agit d’imaginer ce qui s’est
passé. Peu importe les faits qui eurent lieu, l’imagination vise ici ce qui est possible
qu’il se soit passé dans le passé. Il s’agit ici d’une possibilité épistémique 5 . En vertu de
ce que je sais, il est possible que le passé ce soit déroulé de telle ou telle manière (Fi-
gure 2.8d ou 2.11b) ;
Imaginer le factuel présent : ceci correspond aux situations où l’on imagine ce qu’il se
passe maintenant, dans notre espace-temps, mais à un autre endroit (Figure 2.9d) ;
Imaginer le factuel futur : ceci correspond aux situations où l’on imagine non seule-
ment un futur possible, mais surtout le possible futur qui est notre futur à la manière
d’un scientifique qui fait des prédictions. Le but n’est pas de savoir s’il y a un monde
possible dans lequel va se passer une action, mais de savoir si dans notre monde actuel
réel, l’action va se dérouler (Figure 2.11a ou 2.8b).
5. relative à la connaissance
42
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée
Réalité Augmentée
Perception
Environnements
Augmentée
Imaginaires
de la Réalité
Contrefactuel Compréhension
Futur augmentée
Visibilité
Factuel passé
augmentée
Association
Factuel présent
perceptuelle
Substitution du
Factuel futur
réel par le virtuel
Association
comportementale
43
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée
(a) Projet ARMAR de Henderson et Feiner (2009). (b) Exemple d’environnement par incrustation
Compréhension augmentée. d’éléments virtuels par Meine Wohnung (2010).
Imaginer le factuel futur.
(c) Application commerciale Chocapic par Nestle (2010). Imaginer le contrefactuel présent.
(d) L’Abbaye de Cluny augmentée d’éléments ap- (e) L’Abbaye de Cluny comme elle l’est actuelle-
partenant à son passé par ENSAM - On-Situ ment par ENSAM - On-Situ (2010). Imaginer le
(2010). Imaginer le factuel passé. factuel passé.
44
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée
(a) Visualisation d’une pièce mécanique en “mode (b) KARMA Feiner et al. (1993). Visibilité aug-
filaire” dans Fuchs et al. (2001). Visibilté augmen- mentée.
tée.
(c) Gauche : incrustation d’image. Droite : intégration d’image. de Gibson et al. (2003).
45
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée
(a) Réalité à compréhension augmentée. (b) Le système T.A.C de (Bottecchia et al., 2008).
[Link] Research (2010). Visibilité Augmentée.
(c) Fonctionnalité de Réalité documentée. Extrait (d) Substitution du réel par le virtuel (forme glo-
de Didier (2005). Réalité documentée. bale). Extrait de Fuchs et al. (2001).
(e) Projet UnLogo (2010). Un logo apparaissant (f) Physique et réalité augmentée de Total Immer-
dans la vidéo est “caché” par une texture noire. Sub- sion (2008). Association comportementale.
stitution du réel par le virtuel sous forme locale.
46
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée
(a) Un cartier de Rennes augmenté avant sa re- (b) Philadelphie comme elle était dans le
structuration (Rennes La Courrouze, 2011). Imagi- passé (Philadelphie, 2011). Imaginer le factuel
ner le factuel futur. passé.
(c) “Réalité diminuée” ou substitution du réel par le virtuel (forme locale). Le “virtuel” peut être considéré
comme une texture que l’on vient disposer par dessus l’objet à dissimuler. Les lunettes ne sont plus visibles.
Extrait de Herling et Broll (2010).
47
Définition de la réalité augmentée Chapitre 2. Fondements de la Réalité Augmentée
48
Chapitre 2. Fondements de la Réalité Augmentée Définition de la réalité augmentée
49
Classification globale Chapitre 2. Fondements de la Réalité Augmentée
inertielle pour le second exemple, chacune de ces technologies est sujette à des problèmes de
précision, de latence, d’occlusion, etc. Finalement, ce sont pour ces raisons que nous avons
fait le choix de considérer les interfaces de la réalité augmentée comme des interfaces pseudo-
naturelles eu égard au caractère incohérent que peuvent impliquer les technologies utilisées
même s’il ne s’agit pas d’interface à strictement parler du point de vue de l’utilisateur.
Handheld Display : Ce sont tous les dispositifs portables munis d’un ou plusieurs écrans
comme les téléphones portables, les consoles de jeux, les tablettes, les ordinateurs
portables, etc. ;
Projective Display : Il s’agit des systèmes qui utilisent des projecteurs. Les projections
permettent d’ajouter des informations directement sur les objets de l’environnement
de l’utilisateur. Il existe des dispositifs de ce type portés par l’utilisateur ou non.
3 Classification globale
De la littérature et des considérations précédemment évoquées concernant le caractère à
la fois technique et fonctionnel de la réalité augmentée, nous pouvons donc définir une
description de ces systèmes (Figure 2.12).
Nous retenons que les dimensions de cette classification sont les interfaces,
les bases de données, le contexte et la fonctionnalité.
Nous utiliserons les termes d’interfaces motrices et d’interfaces sensorielles dont les détails
sont donnés dans la Section 2.5.
Interfaces : Nous considérons dans cet axe les interfaces motrices (souris, stylet, joystick,
GPS, etc.) permettant de capter les mouvements et actions de l’utilisateur et les
interfaces sensorielles (écrans, lunettes diverses, retours auditifs, etc.) permettant de
stimuler les sens de l’utilisateur ;
Bases de données : Nous considérons comme base les différents types de données utilisés
comme les modèles numériques de terrain (MNT), de surface (MNS), les photogra-
phies, les modèles 2D, 3D ou le texte, les modèles physiques (MP), etc. ;
50
Chapitre 2. Fondements de la Réalité Augmentée Classification globale
Contexte d’utilisation : Nous considérons que le contexte est lié à l’environnement dans
lequel l’application doit être utilisée ainsi que la possibilité pour l’utilisateur de co-
opérer avec une personne localement, ou à distance. Nous intégrons aussi la “mobilité”
dans cette catégorie. Elle caractérise les applications dont le contenu est dépendant
de la position de l’utilisateur dans son environnement ou du dispositif ;
Classification
Contexte
Interfaces Bases de Données Fonctionnalités
d’utilisation
Environnement Perception et
Motrices Ortho-photo
Intérieur Action augmentée
Environnement Environnement
Sensorielles MNS/MNT
Extérieur Imaginaire
Situation
Photos
de Mobilité
Modèles
Coopération locale
2D/3D/Texte
Coopération
Modèles physiques
à distance
Figure 2.12: Détails de la description des systèmes selon les quatre axes principaux.
Les détails de notre classification sont accessibles dans les Tableaux 2.2, 2.3, 2.4, et 2.5.
Une version en ligne, à laquelle tout le monde peut contribuer en proposant un système de
réalité augmentée qui sera ajouté à la base de données est disponible 9 .
51
52
Systeme Interface Bases de données Contexte Fonctionnalités
Sensori MNS/ 2D/3D/ Phéno. Coop. Coop. P. A. Env.
Motrice Sensor. Vector Raster Photo Autre Inté. Ext. Mobilité
motrice MNT Txt Phy. locale distante augmenté Imag.
Sutherland (1965)
Wellner (1991)
Classification globale
Caudell et Mizell
(1992)
Bederson (1995)
Foxlin (1996)
William et al.
(1996)
Piekarski et al.
(1999)
Höllerer et al.
Dangelmaier et al.
(2000)
Chapitre 2. Fondements de la Réalité Augmentée
Molineros et
Sharma (2001)
Inc (2001)
Macintyre et al.
(2001)
Schnädelbach et al.
(2002)
Ghadirian et Bishop
(2002)
Reitmayr et
Schmalstieg (2003a)
Piekarski et al.
Reitmayr et
Schmalstieg (2003b)
53
Classification globale
54
Systeme Interface Base de données Contexte Fonctionnalités
MNS/ 2D/3D- Phéno. Coop. Coop. Per. Act. Env.
Motrice Sensor. SM Vector Raster Photo Autre Inté. Ext. Mobilité
MNT Txt Phy. locale distante augmenté Imag.
Livingston et al.
(2003)
Classification globale
Song et Takatsuka
(2005)
Reitmayr et al.
(2005)
Didier (2005)
Liarokapis et al.
(2005)
Platonov et al.
(2006)
Radburn (2006)
Amir et Vinett
(2007)
Henderson et Feiner
(2007)
Ghadirian et Bishop
Bottecchia
et al. (2008)
Asai et al.
(2008)
Gonzato et al.
(2008)
Research (2010)
PinkFroot
(2010)
Chapitre 2. Fondements de la Réalité Augmentée
Presselite
Junaio (2010),
Layar (2010)
Nestle (2010)
Qualcom,
Tonchidot
Hugues et al.
(2010b)
Research (2010)
ENSAM -
Clay et al.
(2009)
55
Classification globale
Classification globale Chapitre 2. Fondements de la Réalité Augmentée
Nous avons donc appliqué notre classification sur 58 systèmes parmi les plus connus de
la littérature (Tableaux 2.2, 2.3, 2.4, et 2.5). Bien qu’ils n’aient aucune valeur statistique,
nous pouvons faire quelques constats concernant les différents axes de notre classification en
analysant notre échantillon. Nous avertissons le lecteur que ces conclusions ne sont valables
que dans le cadre de l’échantillon des systèmes pris en compte. Si le lecteur veut contribuer
à enrichir la base de données des systèmes, il peut se rendre à l’adresse internet indiquée
en bas de la page 51 et naviguer jusqu’à la section “Contribuez”.
Interface : Nous constatons dans notre échantillon que tous les systèmes répertoriés uti-
lisent des interfaces sensorielles (principalement pour stimuler le sens visuel) et mo-
trices (principalement pour capter les mouvements et les déplacements du ou des
utilisateurs) et que peu de systèmes utilisent des interfaces sensorimotrices. Une des
hypothèses de ce constat provient du fait de la difficulté technique à mettre en œuvre
ce type d’interface, surtout lors d’une situation de mobilité ;
Bases de données : Nous constatons une riche diversité des bases de données, mais aussi
que la moyenne des types de base de données utilisés par les systèmes n’est que de
deux ;
Contexte d’utilisation : Nous constatons que la répartition des systèmes conçus pour
être utilisés en extérieur ou en intérieur est relativement proche (55% en extérieur,
45% en intérieur) et que la mobilité de l’utilisateur est systématiquement utilisée lors
d’applications dédiées à l’environnement intérieur. En effet, certains systèmes comme
les bornes utilisées par ENSAM - On-Situ (2010) par exemple, ne nécessitent pas de
connaitre la position de l’utilisateur ;
Fonctionnalité : Nous constatons, toujours dans notre échantillon, une présence impor-
tante de fonctionnalité de perception/action augmentée ce qui nous permet de dire
que la réalité augmentée est plutôt considérée comme un outil pratique (de guidage,
d’aide à la décision, etc.) plutôt qu’un outil dédié à l’évasion intellectuelle bien qu’il
existe de nombreux systèmes artistiques comme celui proposé par Clay et al. (2009)
par exemple.
56
Chapitre 2. Fondements de la Réalité Augmentée La boucle “perception, cognition, action”
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
C ugm ag.
C ist e
Lo e
M ale
-T .
Se NS eur
In ieur
om A r
2D es e
Ph e
té é
R o
Ve ter
im T
e
y
D té
p. ant
u
èn utr
Ex ilit
ric
ot
-3 Ph
or N
ex
rie
c
p. en
. A Im
as
M ct
ns -M
ot
ob
r
té
A vi.
D
P. En
oo
oo
én
Ph
Tous les systèmes présentés dans les sections précédentes ont été créés pour l’homme. Malgré
un domaine extrêmement dépendant de la technologie comme nous l’avons précisé en Intro-
duction de ce chapitre, les applications doivent être adaptées à l’homme et non l’inverse, à
l’image de la démarche mise en œuvre dans le domaine de l’interaction homme-machine et
en ergonomie. Il est donc nécessaire de s’intéresser à la manière dont l’homme, utilisateur,
perçoit et agit dans son environnement 10 .
57
La boucle “perception, cognition, action” Chapitre 2. Fondements de la Réalité Augmentée
l’approche sensorimotrice (le deuxième cas), en opposition à une approche linéaire et sé-
quentielle du processus perceptif (le premier cas) d’après Auvray et Fuchs (2007). D’ailleurs,
ceci est confirmé par Gibson (1966) qui considère les sens comme des systèmes perceptifs
complets (« percevoir, c’est extraire grâce aux mouvements cette information en en détec-
tant les invariants. »). Initiée par Gibson (1966), le modèle sous forme d’une boucle de
perception, cognition et action est un modèle répendu en psychologie cognitive.
À la lecture des sections précédentes, il est important de noter une spécificité pour les
systèmes de réalité augmentée. L’utilisateur peut agir sur son environnement augmenté
selon deux catégories. Soit l’utilisateur agit via les interfaces motrices qui captent ses actions
(déplacement, gestes, voix, etc.) soit directement sur l’environnement naturel sans interfaces
intermédiaires (déplacements, gestes, voix, etc.).
Nous retenons que les activités de la première catégorie sont transmises au
système qui les interprète pour actualiser les entités virtuelles alors que les
activités de la deuxième catégorie ne sont pas médiées par le système de
réalité augmentée mais ce dernier doit interpréter les changements de l’en-
vironnement naturel pour, le cas échéant, actualiser les entités virtuelles.
58
Chapitre 2. Fondements de la Réalité Augmentée La boucle “perception, cognition, action”
Interfaces motrices
UTILISATEUR(S) CALCULATEUR(S)
Perception Acquisition
Décision Simulation
Action Restitution
Interfaces sensorielles
Figure 2.14: La boucle “perception, cognition, action” passant par le monde virtuel. Extrait
de Fuchs et Moreau (2006).
Interfaces motrices
UTILISATEUR(S) CALCULATEUR(S)
Perception Acquisition
Décision Simulation
Action Restitution
Interfaces sensorielles
Figure 2.15: Boucle “perception, cognition, action” identifiée à deux “endroits” : la boucle
est médiée entre l’utilisateur et le monde virtuel, parallèlement, la boucle est “directe” entre
l’utilisateur et le monde réel.
59
Modèle 3i2RA Chapitre 2. Fondements de la Réalité Augmentée
Deux difficultés peuvent avoir des conséquences néfastes sur la boucle “perception, cogni-
tion, action”. Il s’agit de la latence et des incohérences sensorimotrices. Étant donné
que l’utilisateur peut agir au travers d’une interface comportementale ou directement sur
l’environnement naturel, il est possible de trouver différentes sources de latence. La latence
peut provenir du décalage temporel entre une action de l’utilisateur :
60
Chapitre 2. Fondements de la Réalité Augmentée Modèle 3i2RA
MONDE REEL
Perception
forces sur les
muscles muscles
toucher
nerfs
vue
Centres
ouïe nerveux
goût
nerfs
odorat
muscles
Interface Sensorielles
kinesthésie
Interfaces Motrices
MONDE VIRTUEL
Bien que l’individu perçoive son environnement comme un tout, la distinction technique
entre l’environnement virtuel et l’environnement réel est bien pertinente pour le concepteur.
Dans l’objectif de modéliser l’immersion et l’interaction d’un individu dans un environne-
ment de réalité augmentée, il est donc nécessaire de proposer une modélisation “technique”
de l’environnement réel (Figure 2.17). Nous précisons que cette modélisation est très som-
maire et qu’elle est surtout philosophique. Nous considérons, au centre le Noumène de Kant
(1787), partie inaccessible de la Réalité, indépendante de l’individu qui la perçoit. Autour
du Noumène se trouve les objets, constitués de matière, qu’ils soit naturels ou artificiels.
Ces objets, de part leurs caractéristiques (bruit, odeur, saveur, températeur, etc.) génèrent
des stimuli. Cette combinaison complexe présente la Réalité à l’individu. Enfin, c’est ce
dernier qui donne un sens à ce qu’il perçoit mais cette partie n’est pas comprise dans notre
modélisation de la Figure 2.17 puisqu’elle est réalisée à un niveau cognitif.
61
Modèle 3i2RA Chapitre 2. Fondements de la Réalité Augmentée
MONDE REEL
etc.
Bruit
Stimuli
Dimension
Artefacts
Rugosité
Longeur
Noumène
d’onde
Odeur
Artefacts
Saveur
Stimuli
Température
MONDE REEL
Concernant les processus d’interfaçage, nous avons fait le choix analogue à celui qui a été fait
pour la réalité virtuelle par Fuchs et Moreau (2006) à savoir la décomposition d’un processus
à trois niveaux. Au premier niveau, on peut schématiser l’interfaçage entre l’homme et le
monde mixte au niveau physique. Nous parlons dans ce cas d’immersion et d’interaction
sensorimotrices, puisque le dispositif technique (lorsqu’il s’agit d’un canal médié) est
connecté au corps de l’utilisateur. Au deuxième niveau, nous devons analyser les processus
cognitifs que le sujet va mettre en œuvre et qu’il faudra assister dans son interfaçage avec
l’environnement mixte : c’est le niveau de l’immersion et de l’interaction cognitives.
C’est à ce niveau que l’utilisateur élabore un modèle mental de son environnement (bien que
techniquement, l’environnement soit composé). Le troisième niveau concerne l’application
de réalité augmentée, dont l’objectif est de s’attacher à réaliser une immersion de l’homme
pour une meilleure activité dans son environnement ou pour lui proposer un environnement
imaginaire (cf. les deux fonctionnalités de la réalité augmentée, Section 2.5). Nous parlons
dans ce cas d’immersion et d’interaction fonctionnelles.
62
Chapitre 2. Fondements de la Réalité Augmentée Modèle 3i2RA
63
64
Modèle 3i2RA
I2
Fonctionnelles
Activités de l’homme
dans l’environne-
ment augmenté
Perception augmentée
ou Env. imaginaire
Phénomène Motricité
Motricité Schèmes
désirée Modélisation
I2 Env. Processus Logiciel de
cognitifs
comportementale
Cognitives naturel RA
Perception du monde virtuel
Perception Métaphores désirée
Interfaces
Action
Motrices
Muscles
Réalisation
I2 Centres Réponses Drivers Logiciel
Noumène Physique du
Sensorimotrices nerveux motrices IM Temps réel
monde virtuel
Motricité désirée
Schèmes
Chapitre 2. Fondements de la Réalité Augmentée
Processus
Modélisation
I2
Activité désirée Logiciel RV comportementale
Cognitives cognitifs
Métaphores ALCog du monde virtuel
Perception désirée
Interfaces
Motrices
Réalisation
I2 Centres Réponses Drivers Logiciel
Physique du
Sensorimotrices nerveux motrices IM Temps réel
monde virtuel
Stimuli Drivers
sensoriels Interfaces IS
Sensorielles
Figure 2.19: Modèle de référence en réalité virtuelle proposé par Fuchs et al. (2001).
65
Modèle 3i2RA
Modèle 3i2RA Chapitre 2. Fondements de la Réalité Augmentée
66
Chapitre 2. Fondements de la Réalité Augmentée Conclusion
6 Conclusion
Nous avons présenté dans ce chapitre les fondements de la réalité augmentée. Après avoir
présenté les différentes définitions proposées dans la littérature ainsi que l’étymologie du
terme, nous pronons une approche à la fois conceptuelle et technologique de la réalité
augmentée. Nous avons d’abord proposé la finalité de la réalité augmentée, basée sur l’ob-
servation des différents systèmes. La finalité de la réalité augmentée est de permettre à
une personne de réaliser des activités sensorimotrices et cognitives dans un espace mixte
associant l’environnement réel et un environnement artificiel. La réalité augmentée peut pro-
poser soit une modélisation du monde réel sur la base d’un monde qui imite ou symbolise
certains aspects du monde réel, soit la création d’un monde imaginaire ne correspondant
à rien d’actuel. Nous avons ensuite proposé une définition technique organisée selon six
points caractéristiques. Après avoir recensé les différentes classifications impliquant la réa-
lité augmentée, nous proposons notre classification basée sur un espace de caractéristiques
composé de quatre dimensions orthogonales qui sont les interfaces, les bases de données, le
contexte et la fonctionnalité. Nous avons ensuite appliqué cet espace à de nombreux sys-
tèmes issus de la littérature afin d’en montrer le caractère générique. En nous appuyant
fortement sur les travaux du domaine de la réalité virtuelle, et plus particulièrement du
modèle de Fuchs et al. (2001), nous proposons un modèle d’immersion et d’interaction pour
la réalité augmentée, nommé 3i2RA. Un modèle organisé selon trois niveaux d’immersion
et d’interaction (sensorimotrice, cognitive et fonctionnel).
Nous espérons apporter une certaine unification auprès de la communauté et des acteurs
du domaine de la réalité augmentée par l’introduction de ces définitions distinguant les
fonctionnalités des considérations techniques de ce type d’applications.
Il est maintenant nécessaire de savoir dans quelle mesure la réalité augmentée peut être uti-
lisée pour l’aide à la navigation. Nous présentons donc dans le chapitre suivant les systèmes
informatiques dédiés à l’aide à la navigation et plus particulièrement ceux qui utilisent la
réalité augmentée.
67
Chapitre 3
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4 La tâche de navigation . . . . . . . . . . . . . . . . . . . . . . . . . 73
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
Résumé
Nous présentons dans ce chapitre les systèmes d’information géographique et plus par-
ticulièrement ceux destinés à l’aide à la navigation. Après la présentation des différents
composants de tels systèmes, nous illustrons la chaîne de traitement des informations de-
puis l’acquisition jusqu’à l’affichage. Puisqu’il s’agit d’utiliser ces systèmes pour l’aide à la
navigation, nous présentons les différents modèles génériques de navigation qui ont été pro-
posés dans la littérature et nous détaillons plus particulièrement le modèle apte à prendre
en compte les spécificités des situations rencontrées dans le domaine maritime. Nous propo-
sons ensuite un tour d’horizon des systèmes d’information géographique utilisant la réalité
augmentée que nous avons décidé de ranger en deux catégories selon l’objet des augmen-
tations.. Enfin, nous détaillons les systèmes d’information géographique conçus pour être
utilisés en navigation maritime et nous montrons les difficultés rencontrées lors de l’utilisa-
tion de tels systèmes. Des hypothèses sont proposées concernant les améliorations possibles
pour ces systèmes dont la principale et de proposer à l’utilisateur dans une vue unique des
informations issues d’une approche globale et locale de la tâche de navigation.
Introduction Chapitre 3. Les Systèmes d’Information Géographique
1 Introduction
Les systèmes d’information géographique (SIG) sont des systèmes d’informations (SI) ca-
pables d’organiser et de présenter des données spatialement référencées. Ils sont aussi consi-
dérés comme des Systèmes Interactifs. Golhen (1996) précise que ce concept d’information
géographique a toujours existé. En effet, on la trouve dans des formes très variées comme
le nom des lieux, les directions, les points de passage, la distance ou le temps de parcours.
Avec l’avènement de l’informatique, les développements de systèmes d’information spatiali-
sés répondent à de nombreux besoins que nous présentons par la suite. Utilisant un certain
nombre de bases de données, ces systèmes permettent d’acquérir les informations géogra-
phiques sous forme numérique. Ils archivent ensuite ces informations sous forme de base
de données. Ils permettent d’analyser par la manipulation et l’interrogation des données
géographiques. Ils affichent ensuite ces informations avec des techniques de visualisation
afin d’en faciliter l’interprétation. Ces systèmes, en raison de leur diversité, présentent de
nombreuses problématiques.
70
Chapitre 3. Les Systèmes d’Information Géographique Chaîne de traitement des informations
La qualité des données lors de l’affichage doit évidemment être prise en compte dans chaque
étape de la chaîne de traitement des informations. Qu’elle soit interne (adéquation entre
une carte ou une base de données et ce qu’elle aurait dû être) ou externe (adéquation
entre la carte ou une base de données et les besoins de son utilisateur), la qualité est
sujette à de nombreuses discussions dans la communauté depuis bientôt trente ans comme
le souligne Devilliers et al. (2010).
Deux approches sont possibles pour détailler le traitement des informations. La première
propose une organisation classique des traitements des données d’un système d’information
géographique selon un schéma illustré en Figure 3.1a. Il s’agit d’acquérir les données depuis
le “Terrain”, de les “Archiver”, de les “Analyser” suivant le type de système d’information
géographique et enfin d’afficher les informations. D’un point de vue moins technique et plus
orienté vers l’utilisateur, un rapport de l’Institut Geographique National (1999) propose
une deuxième approche, illustré en Figure 3.1b. Cette approche considère le “monde réel”
ainsi qu’un “modèle mental du monde réel” créé par l’utilisateur. Ce dernier doit extraire les
informations par une interprétation des données. L’interprétation de ces données est rendue
possible par des techniques cartographiques issues de la sémiologie graphique (détails
en Section 3.1). Cette sémiologie, basée sur une histoire maritime de plusieurs siècle a été
formalisée par Bertin (1967). Ce qui nous semble important de souligner c’est le fait que
ces deux approches ne rendent pas compte de deux particularités importantes :
2. Le type de point de vue peut être allocentré ou égocentré : la notion de lecture d’une
carte dans le modèle de la Figure 3.1b implique un point de vue allocentré et élude
le point de vue égocentré.
71
Chaîne de traitement des informations Chapitre 3. Les Systèmes d’Information Géographique
Information
{ Monde Réel
{
Phénomène observé
Données brutes
Données Interprétées
{ Techniques cartographiques
Carte
Information Extraite
{ Lecture
Figure 3.1: Chaîne de traitement classique des données d’un système d’information géo-
graphique.
En effet, dans le cas classique, le système d’affichage nécessite deux vecteurs d’entrée :
1. Requête utilisateur ;
2. Paramètres d’affichage (facteurs d’échelles, abstractions, symbolisations, etc.) ;
Pour d’autres systèmes, ceux dont l’affichage des données est dépendant de la position et
de l’orientation de l’utilisateur dans son environnement, l’ajout d’une nouvelle composante
doit être pris en compte :
1. Position et orientation de l’utilisateur au moment de l’utilisation du système d’in-
formation géographique ;
Pour obtenir des informations issues de ce type de système d’information géographique,
l’utilisateur ne doit pas seulement lancer la bonne requête, mais aussi être à la bonne
position et dans la bonne orientation. Prenons par exemple une application sur dispositif
mobile utilisant un système d’affichage par réalité augmentée permettant de localiser les
restaurants environnants. Après avoir fait la sélection du type de point d’intéret (ici les
restaurants) et après avoir réglé un paramètre de distance pour fixer un rayon d’action de
la requête, l’utilisateur est obligé d’explorer le résultat par des changements de position
et surtout d’orientation de son téléphone portable. C’est pour cela que nous proposons de
modifier la chaîne d’un système d’information géographique en y ajoutant deux notions.
Premièrement, nous ajoutons le caractère “temps réel” pour l’observation des informations.
Deuxièmement, par l’insertion du “Terrain”, nous ajoutons le caractère spatial lors de la
consultation des données. Ce nouveau modèle spatio-temporel de traitement des données
est illustré en Figure 3.2.
72
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation
Temps réel
Terrain
Non temps réel
Figure 3.2: Modèle spatio-temporel de la chaine de traitement des données d’un système
d’information géographique utilisant un système dépendant de la position et de l’orientation
de l’utilisateur.
4 La tâche de navigation
Il existe de nombreux cas dans lesquels l’utilisation d’un système d’information géogra-
phique est intéressante. Par exemple, les analyses spatiales ou la prise de décision pour
l’aménagement du territoire sont réalisées à l’aide d’un système d’information géographique.
Le domaine du marketing utilise aussi très souvent les SIG pour définir l’implémentation
des points de vente ou pour optimiser la distribution. Tous les systèmes informatiques basés
sur de la cartographie sont considérés comme des SIG. Cependant, la fonctionnalité prin-
cipale d’un système d’information géographique et de fournir un outil d’aide à la décision
spatiale et cela est d’autant plus vrai lorsqu’il s’agit d’utiliser un système d’information
géographique en situation de mobilité pour l’aide à la navigation routière ou maritime par
exemple.
Initialement, le mot navigation provient du latin “navigatio” signifiant l’action de naviguer,
de voyager sur la mer ou les rivières selon l’Académie Française (navigation). Aujourd’hui,
de nombreuses acceptions dérivent du terme navigation et qu’il s’agisse de navigation spa-
tiale 2 , maritime, aérienne ou terrestre, de nombreuses personnes rencontrent des difficultés
2. Nous considérons la navigation spatiale d’un individu indépendamment du type d’environnement qu’il
expérimente (réel ou virtuel).
73
La tâche de navigation Chapitre 3. Les Systèmes d’Information Géographique
de différentes sortes 3 face à une tâche de navigation. Cela parait donc délicat de conce-
voir un système d’aide à la navigation sans préalablement comprendre les mécanismes qui
sous-tendent ce type d’action sur un individu. En effet, qu’il s’agisse d’un touriste perdu
dans une ville inconnue ou d’un joueur sur ordinateur ou sur console vidéo désorienté dans
l’environnement virtuel créé par le jeu, toutes ces personnes expérimentent des difficultés
de navigation. De nombreux modèles de navigation ont été proposés dans la littérature et
le premier objectif de ce chapitre est d’extraire le modèle le plus apte à rendre compte des
difficultés rencontrées en navigation maritime et parallèlement lors d’une utilisation d’un
outil d’aide à la navigation. En effet, comme nous l’avons détaillé dans le Chapitre 1 : In-
troduction Générale, nous rappelons que le navigateur dispose d’un système d’information
géographique pour l’aider dans sa tâche de navigation. Il nous est donc nécessaire de prendre
en compte deux sources de difficultés pour la navigation : l’environnement maritime dans
lequel il doit évoluer physiquement et l’outil d’aide à la navigation dans lequel il peut évo-
luer mentalement. Dans un second temps, nous proposerons un tour d’horizon de différents
systèmes d’information géographique dont la particularité est d’utiliser la réalité augmentée
dans leur composant d’affichage des informations afin d’en extraire les problématiques et
les perspectives d’évolution.
74
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation
Zoom
Imagination
Figure 3.3: Le modèle de navigation (traduit et adapté) de Wickens et Prevett (1995) qui
représente la navigation locale et globale.
Darken et al. (1999) précisent que la navigation peut être considérée comme un processus
d’extraction de l’information, de la création d’une représentation mentale et de l’utilisation
de cette représentation pour planifier un chemin et le suivre. Dans ce cas, les deux objectifs
principaux que doit atteindre la personne en situation de navigation sont premièrement de
comprendre la structure spatiale de la zone dans laquelle il se situe et deuxièmement de
réaliser les actions nécessaires pour rejoindre sa destination. Wang (2004) précise que le pre-
mier objectif est de l’ordre du cognitif puisqu’il intègre la connaissance de la configuration
et de la structure de l’environnement dans lequel évolue l’utilisateur (ou son avatar) et que
le deuxième objectif est d’ordre physique surtout lorsqu’il s’agit d’agir sur des interfaces
motrices comme le volant d’une voiture ou l’utilisation d’une manette pour déplacer un
avatar dans l’environnement virtuel d’un jeu vidéo.
75
La tâche de navigation Chapitre 3. Les Systèmes d’Information Géographique
Hedley et al. (2002) proposent deux possibilités pour explorer les données géographiques
de manière collaborative. La première est une interface qui combine la réalité augmentée
et le tracking de la main de l’utilisateur par analyse d’image. Les utilisateurs peuvent ainsi
regarder une carte géographique réelle (en papier) et apercevoir un modèle 3D recalé sur
76
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation
cette carte (Figure 3.5a). La deuxième possibilité propose différentes techniques d’interac-
tion (zoom, déplacements, annotations, etc.) en utilisant par exemple la métaphore de la
loupe afin que les utilisateurs puissent explorer les données (Figure 3.5b). Ce sont des cas
de compréhension augmentée.
77
La tâche de navigation Chapitre 3. Les Systèmes d’Information Géographique
Paelke et Sester (2009) proposent une comparaison entre les cartes papier et les cartes
électroniques. Ils proposent de comparer ces deux moyens de consultation d’informations
géographiques en distinguant trois catégories principales : les fonctionnalités, le contenu
ainsi que l’utilisation et l’interaction. Cette analyse permet aux auteurs de conclure que
les deux approches (papier ou électronique) sont complémentaires dans de nombreux cas.
Cette conclusion a permis aux auteurs de développer un prototype utilisant un PDA et un
positionnement basé marqueur pour la consultation de données géographiques d’une carte
électronique sur mobile.
Par exemple, Reitmayr et Schmalstieg (2003a) proposent deux applications de réalité aug-
mentée en intérieur. La première est une aide à l’exploration d’un bâtiment (Figure 3.8b)
et la seconde une application permettant d’aider à la recherche dans une bibliothèque (Fi-
gure 3.8a). Ces deux applications sont basées sur un système de marqueurs. Ce sont des cas
de visibilité augmentée.
78
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation
(a) Aide pour trouver son chemin dans un bâti- (b) Aide pour trouver un livre dans une biblio-
ment. thèque.
Figure 3.8: Deux exemples d’applications de réalité augmentée pour l’aide à la navigation
en environnement intérieur proposée par Reitmayr et Schmalstieg (2003a). Cas de visibilité
augmentée.
Kim et al. (1997) proposent un système de réalité augmentée dont la caméra est posée
sur un hélicoptère. Ce dernier vole au-dessus des bâtiments et envoie la vidéo au sol ainsi
que sa position et son orientation via une communication sans fil. Une fois les données
(vidéo, position, orientation) récoltées, elles sont mises en commun avec une base de données
permettant d’afficher sur la vidéo, le nom des bâtiments par exemple.
79
La tâche de navigation Chapitre 3. Les Systèmes d’Information Géographique
80
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation
81
La tâche de navigation Chapitre 3. Les Systèmes d’Information Géographique
(a) Vue d’un modèle 3D géoréférencé sur site. (b) UMPC (Ultra Mobile Personal Computer)
permettant de visualiser les informations souter-
raines.
Romao et al. (2002) proposent une solution flexible client-serveur où les données géogra-
phiques et les modèles 3D sont localisés sur le serveur et les composants d’affichage et
de présentation des données sont localisés chez le client. On trouve aussi chez Reitmayr
et Schmalstieg (2003b) une stratégie de gestion des informations géographiques dont l’ar-
chitecture trois-tiers permet l’utilisation de ces données pour une application de réalité
augmentée collaborative (deux utilisateurs) et la réutilisation des données pour d’autres
applications. Le démonstrateur, illustré en Figure 3.15, est une application d’aide à la na-
vigation dans une d’une ville. Il s’agit d’un cas de visibilité augmentée combinée avec de la
réalité documentée.
Figure 3.15: Exemple d’augmentation lors du suivi d’un chemin en ville (Reitmayr et
Schmalstieg, 2003b). Visibilité augmentée combinée avec de la réalité documentée.
82
Chapitre 3. Les Systèmes d’Information Géographique La tâche de navigation
(a) Système d’aide à la conduite automobile (b) Système d’aide à la conduite automobile
de Wikitude (2010). Cas de visibilité augmen- de (Blaupunkt, 2010). Combinaison d’une réa-
tée. lité documentée et d’une visibilité augmentée.
6. “Point of Interest”.
7. Message issus de Twitter, outil de réseau social et de microblogage qui permet à l’utilisateur d’envoyer
des messages brefs.
83
Les SIG pour la Navigation Maritime Chapitre 3. Les Systèmes d’Information Géographique
Nous retenons que lorsque les augmentations numériques ciblent les données
du système d’information géographique, nous parlons alors d’une fonction-
nalité de Carte Augmentée et lorsque la cible des augmentations numé-
riques est l’environnement lui-même, nous parlons alors d’une fonctionnalité
de Territoire Augmenté.
Environnement
Outil de Na-
Cartographie
vigation
Utilisateur
Les mesures des capteurs embarqués sont saisies en “temps réel”. Il existe deux grands types
de capteurs. D’une part les capteurs proprioceptifs et d’autre part les capteurs extéroceptifs.
Les capteurs proprioceptifs ont la tâche d’extraire par exemple la position de son propre
bateau qui est le plus souvent maintenue par un ou plusieurs capteurs GPS. De nombreuses
autres données sont collectées comme par exemple le cap, sa propre vitesse, le roulis, le
tangage, etc. Les capteurs extéroceptifs permettent au système d’obtenir des informations
sur l’environnement plus ou moins proche du navire. Ces capteurs sont par exemple ca-
pables d’obtenir la position géographique d’autres navires, de connaître la température, les
courants, la profondeur ou encore la vitesse du vent. Des fonctionnalités du système de
navigation permettent d’enregistrer les données des capteurs au court du déplacement du
bateau et certains filtres sont utilisés afin d’éliminer les incohérences dans le traitement des
données reçues.
84
Chapitre 3. Les Systèmes d’Information Géographique Les SIG pour la Navigation Maritime
S’ils font encore débat face aux traditionnelles cartes papier, l’adoption par le comité de la
sécurité maritime de l’Organisation Maritime Internationnale (OMI) des amendements in-
troduisant la prescription d’emport obligatoire de système électronique de cartographie sur
tous les navires effectuant des voyages internationaux confirme cet intérêt (Programme PR
NF EN 62376 (2011)). Il existe de nombreuses sociétés positionnées sur le marché du logiciel
de navigation maritime embarqué séparées en deux catégories. Une première partie contient
celles qui développent une application permettant de tirer profit des capteurs embarqués
(radar, sondeur, GPS, etc) comme Rose Point, éditrice du logiciel Coastal Explorer (2009)
(Figure 3.18d) ou MaxSea (2011), éditrice du logiciel MaxSea TimeZero (Figure 3.18b).
D’autres sociétés proposent des plateformes matérielles en plus de leurs applications logi-
cielles comme Furuno (2009) (Figure 3.18c) ou Garmin (2009) (Figure 3.18a).
(a) Plateforme matérielle et logicielle proposée (b) Plateforme logicielle proposée par MaxSea
par Garmin (2009). (2011).
(c) Plateforme matérielle et logicielle proposée (d) Plateforme logicielle proposée par Coastal
par Furuno (2009). Explorer (2009).
85
Les SIG pour la Navigation Maritime Chapitre 3. Les Systèmes d’Information Géographique
5.1 Principe
Bien qu’ils mettent en œuvre les mêmes composants que ceux que nous avons présentés
en Section 2, les systèmes d’information géographique maritimes ont cependant quelques
spécificités que nous proposons de présenter maintenant.
5.1.1 Communications
Dans le domaine maritime, les communications se doivent d’être supportées par des tech-
nologies sans fil acceptant les grandes distances. On trouve donc globalement les commu-
nications par satellite et par radio haute fréquence. Ces vecteurs de communication sont
utilisés pour transporter différents types de données comme les appels vocaux, mais aussi
des données météo pour la mise à jour du système d’information ou encore des données
provenant d’autres navires comme leur position et leur cap par exemple.
5.1.2 Affichage
86
Chapitre 3. Les Systèmes d’Information Géographique Les SIG pour la Navigation Maritime
C’est la base de données personnelle de(s) l’utilisateur(s). Outre les paramètres et réglages
que l’on trouve traditionnellement dans un logiciel, cette base de données permet d’enre-
gistrer les différentes routes que l’utilisateur a empruntées, mais aussi celles qu’il a prévu
d’emprunter. Sont enregistrés dans cette base de données tous les points particuliers que
l’utilisateur renseigne, les zones, etc.
5.1.5 Particularité
Comme le précise Golhen (1996), un système de navigation, ne vise pas à juxtaposer diffé-
rentes technologies (graphisme, base de données, gestion en entre/sortie de capteurs), mais
à intégrer un ensemble de données non cohérentes au départ, en un système d’informations,
modélisant le métier de l’utilisateur. C’est en cela qu’un système d’information géographique
maritme est différent des systèmes d’information géographique les plus courants. À la diffé-
rence d’un système d’information, le système d’information géographique maritime permet
de regrouper les données de cartographie, de position, de météo, de courant, de marée,
de livre des feux et d’image radar afin d’offrir un outil cohérent est centraliser toutes les
données utiles à la navigation.
Il n’existe que très peu d’applications du domaine maritime utilisant la réalité augmentée.
Nous pouvons cependant citer l’application “Ship Ahoy !” de (PinkFroot, 2010). C’est une
application mobile qui récupère les cibles AIS 9 depuis un site internet spécialisé et affiche
ces données en basant le recalage entre informations textuelles et environnement réel sur
la position GPS et le magnétomètre du terminal. Les données du site internet n’étant
mises à jour et déployées qu’une fois par heure environ, l’application est donc difficilement
fonctionnelle et de plus uniquement disponible à proximité d’une borne wifi donc inutilisable
en pleine mer. C’est un cas de réalité à compréhension augmentée.
8. Un quadtree est une structure de données de type arbre dans laquelle chaque nœud peut compter
jusqu’à quatre fils (Wikipedia).
9. Système d’échanges automatisés de messages entre navires.
87
Les SIG pour la Navigation Maritime Chapitre 3. Les Systèmes d’Information Géographique
(a) Une scène maritime augmentée par des in- (b) Un navire augmenté de ces informations AIS.
formations AIS spécifiques aux différents navires
environnants.
Figure 3.20: Une scène maritime augmentée par des informations AIS d’un navire. Cas de
compréhension augmentée.
Une des rares utilisations de la réalité augmentée en compétition maritime a été faite en
2010 par James Spithill 10 lors de la Course de l’América 11 . Ce dernier utilisait un
dispositif de “réalité documentée” (voir Chapitre 2, Section 2.5.1). Les informations, comme
la position de certains concurrents, étaient affichées sur des lunettes que portait James
Spithill, lunettes reliées à un ordinateur que le coureur portait dans un sac à dos.
Enfin, on peut citer les travaux de la société “Technologie Systems Inc.” qui propose une
application utilisant la réalité augmentée pour l’aide à la planification de missions. Un
exemple d’augmentation proposé par Benton et al. (2008) est visible en Figure 3.21. C’est
un cas de réalité à compréhension augmentée combinée avec de la visibilité augmentée.
Figure 3.21: Réalité augmentée pour l’aide à la navigation maritime. Réalité à compré-
hension augmentée combinée à de la visibilité augmentée.
10. [Link]
11. [Link]
88
Chapitre 3. Les Systèmes d’Information Géographique Les SIG pour la Navigation Maritime
89
Les SIG pour la Navigation Maritime Chapitre 3. Les Systèmes d’Information Géographique
Imprécision de la position : le GPS peut dans certains cas (mer agitée, occultation de
satellite, etc.) ne pas être suffisamment précis ;
Données cartographiques erronées ou obsolètes : la mise à jour des données carto-
graphiques est souvent coûteuse et nécessite parfois une connexion internet difficile à
obtenir sur les navires ;
Erreurs de conception : une ergonomie pauvre et une des erreurs majeures dans cette
catégorie. Jie et Xian-Zhong (2008) expliquent que ces logiciels devraient prendre en
compte le fait que les capacités des navigateurs ont tendance à être affaiblies par leur
charge de travail mentale sous la pression de l’environnement de navigation ;
Problèmes matériels ou logiciels : le logiciel n’est pas exempt de bug et le matériel
de problème électronique. L’alimentation étant parfois instable sur un navire, une
coupure peut rendre l’équipement inutilisable ;
5.4 Hypothèse
Bien que de nombreuses causes de défaillance existent comme nous venons de le présenter,
de notre point de vue, ce problème des systèmes de navigation traduit principalement
une défaillance dans la conception du système, à savoir la mauvaise prise en compte en
amont du processus de conception de la réalité des situations dans lesquelles évolue le
marin en rapport à la difficulté d’interprétation des situations réelles par l’intermédiaire
d’un outil symbolisant cet environnement. C’est avec cet objectif que nous avons décidé de
nous rapprocher de la Société Nationale de Sauvetage en Mer (SNSM). En rapport à notre
problématique présentée en Chapitre 1 : Introduction Générale, nous cherchons à réduire
l’écart entre les représentations de la cartographie et ce que l’utilisateur percoit de son
environnement naturel. Nous faisons l’hypothèse que la mise à disposition d’information
à la fois issues d’une approche globale et locale de la tâche de navigation dans un seul
cannal devrait limiter les erreurs liées à la mauvaise interprétation des différences entre
l’environnement réel et l’outil d’aide à la navigation.
90
Chapitre 3. Les Systèmes d’Information Géographique Conclusion
6 Conclusion
La miniaturisation et l’évolution des composants informatiques permettent maintenant
d’utiliser les systèmes d’information géographique en situation de mobilité. Cette situa-
tion, en plus de proposer un contexte d’utilisation riche, peut interférer sur l’utilisation
du système lui-même comme le précise Calvary et al. (2003). Si peu d’études ont été réa-
lisées sur la dangerosité de l’utilisation d’un tel système en situation de mobilité dans le
domaine maritime, ce n’est pas le cas pour le domaine automobile. En effet, une étude
britannique menée par la compagnie d’assurance Privilege Insurance sur un échantillon de
plus de deux mille personnes révèle que 19% des conducteurs sont déconcentrés en lisant
des informations sur un système de navigation GPS. Une autre compagnie d’assurance bri-
tannique, Direct Line, révèle que ces systèmes ont déjà été la source d’accidents ou au
moins de grosses frayeurs au volant pour 2% des conducteurs, soit plus de 290 000 per-
sonnes au Royaume-Uni. Lorsque l’on sait que la tâche principale sur un navire est dédiée
à la veille de l’environnement, il n’est pas vain de vouloir transposer les problèmes rencon-
trés en automobile dans le monde maritime à défaut d’avoir des chiffres pour ce domaine.
L’utilisation d’un tel système en situation oblige, entre autres, les utilisateurs à quitter leur
environnement des yeux et à analyser les informations proposées par le système pour les
faire correspondre aux informations de l’environnement naturel. Par l’utilisation combinée
de la réalité augmentée et des systèmes d’information géographique, nous cherchons à “ré-
duire l’écart” entre l’environnement réel et les données numériques symbolisées du système
d’information géographique. Ces systèmes proposent donc un champ d’action vaste pour la
réalité augmentée. Cependant, dans le cadre du développement de logiciels professionels à
échelle industrielle, l’utilisation de la réalité augmentée reste encore marginale. De ce fait, le
manque de méthode visant l’aide à la conception de ce type d’application pour des équipes
de développement utilisant par exemple l’extreme programming est un frein à l’utilisation
des technologies comme la réalité augmentée. C’est dans l’objectif de répondre à ce manque
que nous proposons, dans le chapitre suivant, une méthode permettant de lier la modéli-
sation des tâches issue de l’activité des futurs utilisateurs au développement logiciel d’un
système d’information géographique utilisant la réalité augmentée. Nous présenterons donc
dans le Chapitre 4 : Conception d’un SIG Augmenté pour la Navigation le sauvetage en mer
et plus particulièrement le rôle de la SNSM avant de présenter une nouvelle méthodologie
de conception que nous avons ensuite mis en œuvre.
91
Chapitre 4
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2 La méthode “Scrum” . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4 La sécurité maritime . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5 Mise en œuvre de la méthodologie . . . . . . . . . . . . . . . . . . 103
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Résumé
1 Introduction
Notre modèle 3i2RA proposé dans le Chapitre 2 nous a permis d’identifier les implications
de l’interfaçage d’un individu avec un système utilisant la réalité augmentée. Cependant,
fort de nos connaissances sur les systèmes d’information géographique présentés dans le
Chapitre 3, il reste nécessaire de spécifier les besoins des utilisateurs afin de déterminer
les fonctionnalités à mettre en œuvre pour l’aider dans une situation de navigation. En
génie informatique, la programmation orientée objet à permis la mise en place de mé-
thodes pour l’analyse et la conception par objet. Cette analyse est soutenue par le langage
UML. Depuis la description des cas d’utilisation jusqu’aux diagrammes de séquences, les
outils UML permettent d’obtenir une vue claire de l’architecture logicielle aux différentes
échelles. Cependant, comme le précise Caffiau et al. (2010), le caractère trop spécifique au
développement informatique des diagrammes UML amène certains chercheurs à proposer
des approches plutôt basées sur une modélisation des tâches des utilisateurs que sur une
analyse par objet. Initiallement développée par des ergonomes, cette approche, qui vise la
prise en compte précoce de l’activité des utilisateurs est au final pertinente pour capturer
les spécifications de besoins d’un logiciel. Cependant, à l’image des années nécessaires à la
mise en place d’outils spécifiques pour l’adoption de la modélisation UML, la modélisation
des tâches est actuellement soumise au même problème. Malgré celà, elle est de plus en plus
utilisée dans le domaine de l’informatique et d’autant plus pour la conception de systèmes
interactifs (Shneiderman et Plaisant (2004)). Dans ce contexte, de nombreux outils basés
sur les “tâches” ont été proposés permettant de modéliser l’activité d’un ou de plusieurs
individus.
Parallèlement, du point de vue du génie logiciel, les intérêts de l’utilisation des méthodes
agiles liés aux projets de développement en informatique et plus particulièrement pour le
développement de systèmes interactifs ne sont plus à démontrer (Beck et al. (2001); Petit
et al. (2007)). D’après une enquête nationale sur les méthodes agiles datant de juin 2009
(Group (2009)), 86% des entreprises sondées ont fait le choix d’utiliser la méthode “Scrum”.
Cependant, si l’approche “Scrum” se veut plus pragmatique que les méthodes traditionnelles,
comment faire le lien entre la modélisation de l’activité des utilisateurs et la méthode de
développement agile ? Nous commencerons donc par présenter très rapidement “scrum” ainsi
que son point faible pour lequel nous proposerons de modifier la méthode de conception
proposée par Sebillotte (1994) afin qu’elle s’intégre dans un processus de développement
“scrum”. Nous présentons ensuite la mise en application de notre méthode.
2 La méthode “Scrum”
La méthode “scrum” est une méthode agile dédiée à la gestion de projet. L’utilisation
du terme “scrum” (mêlée au rugby) a été proposée pour la première fois par Takeuchi et
Nonaka (1986). Essentiellement utilisée pour la gestion de projet informatique 1 , la méthode
peut théoriquement s’appliquer à n’importe quel contexte dès lors qu’il s’agit d’un travail
d’équipe (organisation de mariage, planification d’évènement, etc.).
94
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation La méthode “Scrum”
et les outils. Le second vise un logiciel qui fonctionne par opposition à une documentation
souvent éloignée de la réalité. Le troisième permet une meilleure prise en compte du
client dans les différentes phases. Il s’agit de mettre l’accent sur la collaboration plutôt
que sur le contrat. Enfin, le dernier met en avant la réponse au changement dans le but
d’augmenter la réactivité des équipes face au suivi d’un plan.
Figure 4.1: L’organisation pratique des équipes proposée par la méthode “scrum”.
2.2 Organisation
95
La méthode “Scrum” Chapitre 4. Conception d’un SIG Augmenté pour la Navigation
Tableau 4.1: Exemple d’un “backlog” dans lequel le PO ajoute les futurs développements.
Le rôle essentiel du SM est de faire progresser collectivement les ressources humaines pour
la réussite du projet. Il n’est pas un chef de projet mais un facilitateur. Il est en charge de
veiller à la mise en application de la méthode “scrum”, d’encourager l’équipe à apprendre et
à progresser, de faire en sorte d’éliminer les obstacles ou encore d’inciter l’équipe à devenir
autonome. Si le SM s’aperçoit qu’il n’est plus indispensable, c’est qu’il a réussi dans sa
tâche.
2.3 Déroulement
Le cycle de développement de la méthode “scrum” est organisé en “sprint”. Un “sprint” est
le terme utilisé dans “scrum” pour itération. C’est un bloc de temps fixé aboutissant à
créer un incrément du produit potentiellement livrable selon Aubry (2010). Cette approche
incrémentale désigne justement le fait que le logiciel s’étoffe à la fin de chaque sprint. Ces
sprints ont tous la même durée et ne sont pas extensibles. À la fin d’un sprint, l’équipe
réalise la revue de sprint. Elle est basée sur une démonstration du logiciel : voici ce qui
fonctionne et ce que l’équipe à développé pendant ce sprint. Cette revue permet de faire
partager la réalisation de l’équipe avec le reste de l’organisation puisqu’un projet est souvent
composé de plusieurs équipes “scrum”.
2.4 Problématique
Nous revenons plus en détails sur le rôle du PO dans cette méthode. Les compétences
souhaitées pour ce rôle sont assez vastes. Il est nécessaire d’avoir une bonne connaissance
du domaine métier, d’avoir l’esprit ouvert ou encore une bonne aptitude à la négociation.
Il s’avère cependant que la méthode “scrum” ne propose rien pour aider ou guider le PO.
En réalité, guidé par l’axe qu’il souhaite donner à son produit, le PO utilise son expérience
et sa connaissance du métier pour proposer de nouvelles fonctionnalités. Cependant, nul
besoin de rappeler par des exemples connus de tous que l’ajout de nouvelles fonctionnalités
nécessite une approche bien spécifique. Cette approche vise à déterminer les besoins réels
des utilisateurs si l’on veut éviter les revers par l’ajout de fonctionnalités qui semblaient
intéressantes, mais finalement jamais utilisées, voire encombrantes. Il est donc nécessaire
d’assister le PO pour identifier les fonctionnalités à ajouter dans le “backlog”. Il s’agit de
cibler la priorité et le contenu (à commencer par le titre) d’une fonctionnalité. L’effort est
une pondération donnée par l’équipe étendue (membre de l’équipe et “scrum master”, le PO
assiste à cette pondération mais ne vote pas) lors de la présentation des items à l’équipe
afin d’évaluer le poids (en terme de développement) de chaque fonctionnalité demandée.
Nous conseillons au lecteur souhaitant obtenir un complément d’information
sur la méthode “scrum” de lire l’excellent guide de Aubry (2010) pour une
définition et une mise en place pratique de la méthode.
96
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Méthodologie
2.5 Proposition
Il nous semble donc important de proposer une méthode pour guider le PO dans la définition
de certaines fonctionnalités auxquelles il n’aurait peut-être pas pensé sans cette méthode.
L’objectif de cette proposition étant de répondre à la question suivante : comment intégrer
une approche ergonomique de modélisation de l’activité humaine pour guider le développe-
ment d’un système d’information géographique d’aide à la navigation innovant en utilisant
une méthode agile ? Pour répondre à cette question, nous proposons de modifier la mé-
thode proposée par Sebillotte (1994). Après la présentation de notre méthodologie dans la
section suivante, nous proposons une présentation rapide de la sécurité dans le domaine
maritime et plus particulièrement de la SNSM afin de mieux cerner le contexte de notre
étude. Pour illustrer notre méthode, nous présentons ensuite un cas pratique de conception
d’une fonctionnalité logicielle dans un système d’information géographique pour la navi-
gation maritime. Cette méthodologie a permis de nous orienter dans le développement de
certaines fonctionnalités que nous présenterons en détail dans le Chapitre 5 : SIGMA : SIG
Maritime Augmenté.
3 Méthodologie
C’est après cette étape que nous divergeons de l’approche de Sebillotte (1994) qui propose
initialement une démarche pour extraire des caractéristiques pertinentes pour l’organisa-
tion d’interfaces graphiques. De notre point de vue, après la modélisation de l’activité par
l’utilisation d’une méthode de description des tâches, nous proposons d’identifier les fonc-
tionnalités nécessaires pour faciliter la complétion des tâches. Le processus de conception
se déroule donc ainsi :
97
La sécurité maritime Chapitre 4. Conception d’un SIG Augmenté pour la Navigation
Bien qu’ils ne soient pas décrits explicitement, nous avons déduit les quatre premiers points
depuis le document didactique proposé par Sebillotte (1994). Le cinquième et le sixième
point sont particuliers puisqu’ils diffèrent beaucoup de la méthode proposée par Sebillotte
(1994). L’objectif de ces points est de déterminer quelles sont les fonctionnalités qui per-
mettent de faciliter la complétion des tâches. Les facteurs permettant de caractériser la
facilitation des tâches seront par exemple le temps de complétion ou la fréquence d’appari-
tion des tâches.
4 La sécurité maritime
Il existe trois grands types de navires. Les navires de charge dont l’activité est le transport
de marchandises ou de personnes, les navires de services et d’assistances, dont l’activité est
d’être les auxiliaires des autres navires et les navires professionnels, dont l’activité est la
recherche océanographique ou le câblage par exemple. Concernant les navires de charge, le
graphique en Figure 4.2 montre clairement l’évolution du volume du transport maritime. Les
navires sont toujours plus nombreux, toujours plus gros et souvent, toujours plus rapides.
En effet, la flotte mondiale n’a cessé d’augmenter tant en nombre de navires qu’en tonnage
depuis 1962.
98
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation La sécurité maritime
en millions de tonnes
170
160
150
140
130
120
110
100
1991 1993 1995 1997 1999 2001 2003 2005 2007 2009
Figure 4.2: Échanges maritimes commerciaux mondiaux entre début 1991 et fin 2010.
L’Organisation Maritime Internationnale (OMI), dont l’un des objectifs est d’assurer la
sécurité maritime, a donc mis en place deux conventions internationales nommées SOLAS
(Safety of Live at Sea) et SAR (Search and Rescue). La première convention SOLAS est
adoptée en 1914 (suite à l’accident du RMS Titanic), la deuxième en 1929, la troisième en
1948, la quatrième en 1960 et la dernière en 1974 et est entrée en vigueur le 30 mai 1980.
La convention SOLAS affirme le principe universel du secours en mer. La convention SAR
a quant à elle été adoptée le 27 avril 1979 et est rentrée en vigueur le 22 juin 1985. Elle a
pour objectif la création à l’échelle internationale d’un système assurant la recherche et le
sauvetage en tous lieux et en tout temps. Elle décrit l’organisation et la coordination des
secours, la coopération entre les états et les différentes procédures opérationnelles. Diffé-
rents organismes ont donc été créés à la suite de ces conventions. Ceux qui s’occupent de la
sécurité maritime sont les centres de coordination des secours maritimes ou “Maritime Re-
scue Coordination Center” (MRCC) et le Système Mondial de Détresse en Mer (SMDSM).
Les activités de ces deux organisations sont très larges. Les MRCC assurent une veille per-
manente de leur domaine maritime alors que les SMDSM s’occupent quant à eux de la
partie télécommunication. En France, les MRCC sont les Centres Régionaux Opérationnels
de Surveillance et de Sauvetage (CROSS). Il existe sept CROSS en France. Ces organismes
assurent la conduite des opérations de recherche et de sauvetage dans les zones maritimes.
Ils assurent aussi une veille permanente des appels de détresse, analysent les situations et
définissent une stratégie opérationnelle et engagent et coordonnent les moyens de secours.
Les CROSS assurent aussi la surveillance des pollutions marines, la diffusion de l’informa-
tion nautique et la surveillance de la circulation maritime. Ils sont sous la responsabilité du
Préfet Maritime (Figure 4.3).
99
La sécurité maritime Chapitre 4. Conception d’un SIG Augmenté pour la Navigation
Ministère des
Transports
Préfet Maritime
Préfet de
Maire CROSS
département
Marine Affaires
Gendarmerie Douanes SNSM Autres
Nationale maritimes
L’organisme qui prend en charge le plus de sauvetages sur le plan national est la Société
Nationale de Sauvetage en Mer (SNSM). On peut voir la part importante du nombre d’inter-
ventions à l’échelle nationale pour l’année 2010 de la SNSM dans la Figure 4.4 par rapport
aux autres organisations. C’est pour cela que nous avons choisi de nous rapprocher
de cet organisme pour notre analyse des situations rencontrées par les marins.
100
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation La sécurité maritime
Marine Nationale
17.8%
Privé
35.13%
SNSM
4.1.1 Rôle
Le rôle de la SNSM est décomposable en trois points distincts :
1. L’assistance aux personnes ;
2. L’assistance aux biens ;
3. La formation (du personnel navigant et administratif, etc.).
Concernant l’assistance aux personnes et aux navires, la station d’Hendaye doit répondre
à tous les appels reçus sur leur numéro d’urgence le plus souvent issue du CROSS d’Etel.
Ils sont donc déclenchés soit :
101
La sécurité maritime Chapitre 4. Conception d’un SIG Augmenté pour la Navigation
– Par le CROSS ;
– Par des marins, plaisanciers, pêcheurs, par téléphone portable ;
– Par des témoins de terre ;
– Par les services espagnols (le “Salvamento Maritimo”), relayés par le SMDSM 2 et soutenue
par la convention SOLAS signée à Hambourg qui précise justement qu’en matière de
sauvetage, il n’y a pas de frontière.
Concernant la formation, les sauveteurs se rendent dans les centres de formation et d’in-
tervention de la SNSM (32 centres en France) pour un recyclage annuel afin d’obtenir par
exemple les accréditations nécessaires aux premiers secours. De plus, deux entraînements
sont réalisés chaque mois dont un de jour et un de nuit pour l’exécution de certaines ma-
nœuvres et l’utilisation du matériel.
4.1.2 Organisation
L’organigramme en Figure 4.5 présente la hiérarchie globale de la SNSM sur le plan natio-
nal. Sous la responsabilité d’un président, la station de sauvetage est composée d’un patron
titulaire et de plusieurs patrons suppléants. C’est le patron titulaire qui est en charge d’as-
surer qu’une équipe de sauveteurs soit capable d’embarquer dans la limite de quinze minutes
après un appel d’urgence. L’organisation des équipes est différente en fonction des stations.
Dans certaines stations, des calendriers sont clairement définis afin que les astreintes soient
équilibrées entre tous les sauveteurs. Dans d’autres stations (celle d’Hendaye par exemple),
les sauveteurs se doivent d’indiquer au patron titulaire s’ils sont disponibles ou non. Lors
d’un appel d’urgence, le patron décide d’embarquer lorsqu’il considère que l’équipe est suf-
fisamment complète pour mener à bien la mission demandée. Bien qu’il soit préférable que
l’équipe soit au complet (6 sauveteurs), dans certaines situations, il s’avère parfois vital de
partir plus rapidement quitte à être moins nombreux.
102
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie
Conseil
Président
d’Administration
Secrétaire Général
Délégués
Départementaux
103
Mise en œuvre de la méthodologie Chapitre 4. Conception d’un SIG Augmenté pour la Navigation
104
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie
105
Mise en œuvre de la méthodologie Chapitre 4. Conception d’un SIG Augmenté pour la Navigation
Context Jour /
Situation Météo Mer Tâches Remarques
global Nuit
Trouver
Approche
s1 N Dégagée Calme l’entrée du
du port
port
Navigation
Maintenir la
s2 dans un J/N Dégagée Calme
position
couloir
Suivre une
s3 Navigation J/N Brouillard Calme
route
Trouver
Approche
s4 J/N Brouillard Calme l’entrée du
du port
port
iceberg,
Détection
s5 Navigation N Dégagée Calme container,
OFNI
rondins, etc.
Éviter les
s6 Navigation J/N Dégagée Calme rochers
immergés
Identifier la
s7 Navigation J/N Dégagée Calme position des
épaves
Nous avons décomposé notre modélisation en respectant l’approche de Sebillotte (1994) se-
lon quatre entités ayant à intervenir durant nos observations. Ces entités sont les suivantes :
Individus : le patron, les sauveteurs, la personne qui déclenche l’alerte, les individus se-
courus, etc. ;
Machines : VHF, Bipeur, Téléphone, Boston whaler (petit bateau), Bidasoa (vedette), la
moto-pompe, la remorque, le zodiac, la civière, etc. ;
Évènements : alerte téléphone, alerte 149 (bipeur), vedette quitte le port, vedette arrive
sur site, plongeur détecté, bateau en détresse détecté, etc. ;
Nous proposons de présenter les détails de la modélisation de la situation “s2” dont les
caractéristiques sont présentées dans le Tableau 4.4. La navigation à l’intérieur d’un couloir
est une situation très courante. À grande échelle par exemple, des couloirs maritimes sont
définis pour le passage des navires dans les zones de circulations denses. Par exemple, la
Figure 4.6 illustre très bien les deux couloirs de passage des navires dans La Manche.
106
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie
Figure 4.6: Illustration des deux couloirs maritimes pour la circulation des navires entre
l’Angleterre et la France. Image extraite du site internet MarineTraffic (2011).
Voici un exemple d’une interview d’un des patrons concernant cette situation spécifique.
En suivant l’approche de Sebillotte (1994), certaines tâches sont extraites des différentes
réponses.
107
Mise en œuvre de la méthodologie Chapitre 4. Conception d’un SIG Augmenté pour la Navigation
108
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie
Comme l’indique la méthode de Sebillotte (1994), il est nécessaire d’affiner le modèle au fur
et à mesure de la récolte des données. Après plusieurs discussions, il est apparu quelques
subtilités dans la situation que nous devions observer. En effet, dans certains cas, le naviga-
teur est parfois amené à définir son propre couloir. Après avoir défini un point de départ et
un point d’arrivée sur la cartographie, le navigateur décide du cap à suivre pour rejoindre
le point de départ. Lorsqu’il se trouve au niveau du point de départ, il doit suivre le cap
défini par la droite passant par le point de départ et d’arrivée. S’il ne veut pas dévier de
sa route prévue, il se doit de maintenir le navire dans un couloir englobant la droite liant
le point de départ et d’arrivée. La difficulté réside dans l’estimation du cap à suivre qui
permettra au navire de rejoindre le point d’arrivée en prenant en compte les courants et le
vent. La distance entre le point de départ et le point d’arrivée est dépendante des conditions
météorologiques et de la route à parcourir. Le navigateur répète ainsi l’opération plusieurs
fois au cours d’une même traversée. La phase de définition du couloir peut être réalisée à
terre. Dans le cadre de nos observations, nous considérons que la route à suivre est déjà
planifiée.
Comme le propose la méthode de Sebillotte (1994), il est aussi possible d’utiliser les “traces”
pour affiner le modèle. L’analyse des traces permet de s’assurer que les objectifs des tâches
et les procédures pour atteindre ces objectifs correspondent à la réalisation effective de la
tâche.
5.5 Modèle
Nous présentons, en Figure 4.7, l’arbre des tâches de la situation “s2”. Comme le nécessite
la méthode, nous avons aussi pris en compte le caractère sensorimoteur ou cognitif d’une
tâche, sa fréquence, les préconditions, les postconditions ainsi que les changements sur
l’environnement. Il est difficile de savoir à quel moment exact commence la navigation dans
le couloir. Nous nous sommes référés à la position GPS du navire. Lorsque le navire semblait
être suffisamment proche du point de départ, nous avons considéré que les données récoltées
à partir de ce moment là pouvaient être intégrées aux données de la situation “s2”.
Nous avons maintenant déroulé les deux phases de la méthode de Sebillotte (1994). L’objec-
tif de notre approche étant d’aider le PO dans le choix des fonctionnalités qu’il doit ajouter
à son logiciel, nous proposons de prendre en compte certains facteurs dégagés lors de la
modélisation.
109
110
“s2”.
1.
Naviguer
dans couloir
Contrôler
Connaître Atteindre Rester dans
autres
Mise en œuvre de la méthodologie
Figure 4.7: Arbre des tâches créé en fonction des entretiens et observations pour la situation
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie
P = 1000 ⇥ N ⇥ I
Les valeurs des coefficients de la relation, obtenus de façon empirique, sont définies dans le
Tableau 4.5. Par exemple, une tâche peu importante mais obligatoire générera une fonction-
nalité dont la priorité sera de 300 alors qu’une tâche obligatoire et très importante génèrera
une fonctionnalité de priorité 900. Les coefficients N et I pourront être affinés avec l’expé-
rience du PO si nécessaire mais il s’avère que nous obtenons des résultats cohérents avec
ces valeurs.
Tableau 4.5: Coefficients permettant de définir la règle de calcul de la priorité d’une tâche.
5.7 Démarche du PO
Nous proposons que le PO parcoure l’arbre de modélisation d’une situation en commençant
par les feuilles de l’arbre puisqu’il s’agit des tâches les plus concrètes. Il détermine si ces
111
Mise en œuvre de la méthodologie Chapitre 4. Conception d’un SIG Augmenté pour la Navigation
feuilles sont compatibles avec la direction qu’il souhaite donner à son logiciel. Pour notre
exemple de modélisation de la situation “s2”, le PO trouvera les feuilles suivantes :
– Vérifier lat/lon ;
– Consulter la cartographie ;
– Garder le même cap ;
– Changer de cap ;
– Contrôler la position des autres navires.
Avec l’aide des fréquences d’apparition des tâches comme l’illustre la Figure 4.8, le PO
décide d’ajouter une fonctionnalité associée aux différentes tâches. Comme nous l’avons
déjà précisé en début de ce chapitre, dans le cadre de “scrum”, le PO n’est pas guidé
quant aux choix des fonctionnalités qu’il faut ajouter au logiciel. En utilisant un modèle
de description des tâches comme nous venons de présenter et une aide pour le calcul de la
priorité des fonctionnalités, le PO peut ainsi décrire plus facilement des fonctionnalités qui
auront pour objectif d’aider à l’accomplissement de ces tâches.
Nb. 80
70
60
50
40
30
20
10
p
p
s.
p
n.
ha rto.
v.
ca
ca
ca
po
na
.lo
ca
er
er
ir
at
er
es
en
ng
ifi
ôl
r
tr
te
er
ér
nt
tr
au
ul
fi
V
ai
on
C
i
s
ér
M
er
on
C
V
ôl
C
tr
on
C
5.8 Résultats
Le Tableau 4.6 propose l’ajout de trois fonctionnalités dont les priorités ont été calculées
par la relation précédemment présentée. La création du contenu de chaque fonctionnalité
reste à la charge du PO, comme c’est prévu par “scrum”. Cependant, l’intérêt d’avoir mis en
place cette démarche permet au PO de se baser sur un modèle d’activité pour extraire des
fonctionnalités qui visent directement les tâches que doivent réaliser les futurs utilisateurs
de son logiciel.
112
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Mise en œuvre de la méthodologie
Nos observations et nos analyses nous ont amenés à faire quelques constats importants qui
nécessitent la mise en place de solutions techniques adéquates. Nous n’avons pas été en
mesure de répondre à tous les besoins dans le cadre de cette thèse, mais parmi les constats
qui suivent, ceux qui n’ont pas été traités laissent apparaître des perspectives à ces travaux
de thèse.
Nous avons constaté que les marins ont acquis un sens de l’observation panoramique excep-
tionnel à cause d’une perpétuelle hantise : la collision avec d’autres navires. Les technologies
déjà à bord sont inutiles dans certaines situations (le radar est très bruité dans les zones
assez proches du navire ou lors de mauvaises conditions météorologiques et tous les navires
ne disposent pas d’AIS permettant de connaître leurs positions) ce qui implique que les
marins ne peuvent pas leur faire totalement confiance. Cette tâche de “Surveillance des en-
virons” est réalisée en parallèle de toutes les autres tâches et nécessite une attention toute
particulière, menant parfois les marins à opérer à plusieurs en même temps. Sans présup-
poser de solutions techniques à ce stade de l’analyse, nous serons certainement amenés à
prendre en compte des technologies offrant un très grand champ de vision des informa-
tions (caméra grand-angle ou multicaméras par exemple) concernant les capteurs et nous
serons confrontés à des contraintes fortes pour l’utilisation d’équipement porté (casques ou
lunettes de réalité augmentée) dont les propriétés ne permettent pas d’obtenir un champ
de vision suffisamment important.
Les navigateurs doivent évaluer la profondeur des fonds de l’eau. C’est une tâche que nous
avons nommée “Évaluation de la prodonfeur”. La couleur de l’eau, la forme des vagues, les
informations du sondeur lorsqu’elles sont disponibles, croisées avec la cartographie et leur
connaissance de l’endroit permettent aux navigateurs d’évaluer la profondeur des fonds et
ainsi déterminer si le passage est possible en fonction de leur embarcation. Cette tâche est
extrêmement coûteuse puisqu’elle est réalisée en permanence par les navigateurs. Nous ga-
geons que la mise en correspondance spatiale et temporelle permise par la réalité augmentée
entre l’eau et les informations cartographiques de profondeur permettront de faciliter cette
évaluation.
Nous avons aussi observé que l’utilisation de l’outil d’aide à la navigation oblige les naviga-
teurs à quitter des yeux leur environnement pour se concentrer sur l’écran de l’outil ce qui
pose parfois problème à cause du changement de luminosité ou de l’accommodation visuelle.
C’est une problématique que l’on trouve aussi dans l’aviation et dans le domaine automo-
bile et pour laquelle les constructeurs proposent des dispositifs d’affichage “tête-haute”. Pour
contrer ce problème, les navigateurs ont défini une procédure nécessitant deux marins dont
l’un est affecté à l’utilisation de l’outil et l’autre au pilotage proprement dit. Nous gageons
que les technologies de la réalité augmentée, par des systèmes de projection par exemple ou
les solutions sonores spatialisées 3 pourront, dans certaines situations, permettre au pilote
d’obtenir les informations nécessaires sans quitter son environnement des yeux.
3. L’utilisation de la multimodalité est une des pistes non explorées dans ces travaux de thèse.
113
Mise en œuvre de la méthodologie Chapitre 4. Conception d’un SIG Augmenté pour la Navigation
Nous avons aussi remarqué que les marins se positionnent sur le navire afin de couvrir la
plus grande surface de surveillance autour d’eux. Cette opération est réalisée naturellement
par les marins. La position des marins sur le navire étant connue par chacun car la taille
de l’embarcation le permet, un marin peut “délaisser” une zone en sachant qu’un autre est
mieux placé sur le navire pour réaliser la surveillance de cette zone.
114
Chapitre 4. Conception d’un SIG Augmenté pour la Navigation Conclusion
6 Conclusion
Après une brève présentation de la méthode agile “scrum”, nous avons identifié un problème
lié à son utilisation, à savoir le manque d’outil et de méthode visant à guider le responsable
produit pour les choix de développement qu’il doit faire pour son futur logiciel. Après la
présentation du sauvetage en mer comme contexte de notre étude, nous proposons une
démarche visant à guider le responsable produit (PO) afin de dégager des fonctionnalités
utiles pour l’aide à la complétion des tâches des utilisateurs après avoir modélisé l’activité
de ces derniers. Basée sur la méthode proposée par Sebillotte (1994), cette approche permet
de mettre en relation la modélisation de l’activité des individus sous forme de tâches avec
une méthode agile de développement. Cette approche a l’avantage de s’intégrer dans la
démarche de réalisation d’un outil logiciel même en cours de développement.
Notre méthode nécessite encore d’être affinée afin de répondre plus précisément aux besoins
du PO en terme de guidage pour de nouvelles fonctionnalités. Par exemple, un formalisme
pourrait être défini par une analyse sémantique des termes employés pour définir une tâche
afin d’en extraire une fonctionnalité.
La spécification des fonctionnalités étant cadrée par la méthode que nous venons de propo-
ser, il est maintenant nécessaire de présenter les différents composants logiciels permettant
de mettre en œuvre les fonctionnalités identifiées par notre méthode.
115
Chapitre 5
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
Résumé
Nous allons présenter dans ce chapitre l’architecture logicielle basée sur trois compo-
sants principaux et l’architecture matérielle de notre Système d’Information Géographique
Maritime Augmenté, SIGMA. Le premier composant fournit les services nécessaires aux
connexions du système d’information géographique avec tous types de caméra vidéo. Le
deuxième composant s’occupe de la création d’un espace mixte en utilisant la vidéo fournie
par le composant précédent et les données numériques géoréférencées du système d’informa-
tion géographique. Enfin, le troisième composant permet d’enregistrer et de rejouer toutes
les données numériques synchronisées avec la vidéo. Nous présentons aussi notre démarche
basée sur des tests unitaires pour l’implémentation d’une fonctionnalité jugée critique ainsi
que nos critères de choix pour certains matériels et technologies. Pour plus de détails sur
les systèmes d’informations géographiques dédiés au domaine maritime, vous pouvez vous
rendre en Section 5 du Chapitre 3.
Introduction Chapitre 5. SIGMA : SIG Maritime Augmenté
1 Introduction
L’objectif de ce chapitre est de présenter les bases techniques de SIGMA. Les fonctionnalités
développées et présentées dans ce chapitre ont été identifiées lors de la mise en application
de la méthode proposée dans le Chapitre 4. Nous allons présenter plus particulièrement
trois composants logiciels qui constituent SIGMA. Ces composants sont eux-mêmes basés
sur des composants du système d’information géographique que nous présenterons moins
en détail. Nous utiliserons la modélisation UML concernant les diagrammes de composant
et les diagrammes de classe en annexes.
Dans notre contexte, tous nos utilisateurs, qu’ils soient à terre ou en mer doivent avoir le
champ de vision le plus large possible afin de veiller sur leur environnement. Un dispositif qui
limite le champ de vision horizontal est rédhibitoire. Ceci est d’autant plus vrai concernant
plus particulièrement les marins qui doivent conserver la plus grande mobilité puisqu’ils sont
amenés à se déplacer le long d’un navire relativement exigu (ils ne doivent pas être gênés
pour descendre une échelle abrupte par exemple) et sont amenés à porter de lourdes charges.
Enfin, ils sont très certainement amenés à être mouillés ce qui ne faciliterait pas l’intégration
d’un dispositif électronique porté. D’après le tableau proposé par Keller et Colucci (1998),
nos contraintes ne nous permettent pas encore d’utiliser un matériel existant puisque nous
poussons à l’extrême la nécessité d’un champ de vision inaltéré pour un encombrement quasi
inexistant ! Dans ce contexte, SIGMA utilise pour l’instant un affichage déporté même si
sa conception n’interdit pas l’utilisation d’un dispositif porté en vision indirecte 1 ou d’une
solution “projetée” par exemple.
2 Présentation générale
La démarche que nous avons menée et qui a été présentée dans le Chapitre 4 n’avait pas
comme objectif de proposer un nouveau dispositif de restitution des informations. Cepen-
dant, si nous devions utiliser cette expérience pour faire une proposition afin de seconder
le système actuel qui se trouve être un écran d’ordinateur classique, voire le remplacer,
nous proposerions certainement un système de la classe des “Projective Display”. Les in-
formations seraient projetées sur les vitres du navire donnant vers l’extérieur. Certaines
sembleraient recalées avec l’environnement extérieur (réalité à compréhension augmentée :
Figure 2.10a) alors que d’autres ne le seraient pas (réalité documentée : Figure 2.10c). Ce
faisant, les navigateurs pourraient obtenir les informations dont ils ont besoin sans pour
autant quitter leur environnement des yeux. Ce système serait combiné avec un dispositif
mobile communiquant avec l’ordinateur principal afin d’informer le porteur par les données
les plus importantes liées au navire (position, cap, etc.) lorsqu’il n’est pas dans la cabine
de pilotage, mais aussi par des informations sur les autres membres de l’équipage (position
sur le navire, action en court, etc.). Le dispositif portable permettrait aussi de déclencher
certaines actions jusque-là réservées au poste de pilotage.
La proposition et la réalisation de nouvelles interfaces sont cependant remisent à plus tard.
Nous proposons donc un système utilisant le triptyque classique “écran-clavier-souris”. L’in-
terface graphique du système, illustrée en Figure 5.1 est composé de plusieurs espaces.
Ces espaces, représentés par des onglets permettent à l’utilisateur de paramétrer l’interface
en fonction de différentes situations d’utilisation (en mer, à terre, etc.). Chaque espace est
muni d’un ruban sur la gauche de l’écran regroupant tous les outils nécessaires à l’utilisateur
1. Il est en effet important de préciser qu’un dispositif porté peut être soit en vision directe (“optical see-
through”) soit en vision indirecte (“video see-through”). Pour plus d’informations, nous invitons le lecteur
à parcourir la deuxième partie de la thèse de Bottecchia (2010).
118
Chapitre 5. SIGMA : SIG Maritime Augmenté Architecture matérielle générale
pour créer des points, des zones, changer d’échelle, bouger la cartographie, etc. Le ruban
supérieur propose à l’utilisateur des filtres d’affichage des informations. C’est dans ce ruban
que l’utilisateur sélectionne le type de cartographie qu’il désire voir s’afficher par exemple.
Sur la droite, une zone verticale permet à l’utilisateur d’obtenir des informations précises
comme sa propre position, des informations météorologiques ou l’heure par exemple. Le
navire est toujours représenté en rouge.
Figure 5.1: Une vue de l’interface graphique globale du système d’information géogra-
phique.
119
Architecture matérielle générale Chapitre 5. SIGMA : SIG Maritime Augmenté
Convertisseur ana-
logique/numérique
Liaison Ethernet
Camera Thermique Liaison série
Convertisseur
NMEA2000
- NMEA183
Laison NMEA
Liaison Haute
fréquence
(a) On peut voir la caméra à gauche de l’image (b) Intégration du logiciel d’aide à la navigation
ainsi que la centrale inertielle satellitaire à droite de dans la cabine de pilotage du navire.
l’image. Le matériel est fixé sur le mat du bateau.
120
Chapitre 5. SIGMA : SIG Maritime Augmenté Architecture logicielle
4 Architecture logicielle
La configuration logicielle globale qui a été mise en œuvre est illustrée en Figure 5.4. Il
s’agit d’une architecture orientée composant. Nous avons créé trois composants logiciels
ayant chacun des fonctions spécifiques. Le composant VideoCamera s’occupe de fournir
les services de gestion vidéo et du contrôle des caméras de différents types. Le composant
AugmentedReality s’occupe de la réalisation d’un espace de visualisation de la vidéo aug-
mentée d’informations virtuelles extraites du système d’information géographique. Enfin,
un troisième composant a été développé pour réaliser une fonctionnalité d’enregistrement
et de lecture des données de manière synchronisée. Ce composant s’occupe d’enregistrer les
informations issues des capteurs proprioceptifs et extéroceptifs. Ces informations sont par
exemple sa propre position, mais aussi la position et le cap d’autres navires. Ce composant
enregistre aussi la vidéo issue des caméras et dispose d’un mécanisme de synchronisation
entre les données reçues et les images des caméras.
Chaque composant, sauf exception, implémente le patron de conception “Façade” (Gamma
et al. (1994)). Il s’agit de cacher la compléxité du composant en publiant une interface
mettant à disposition des utilisateurs du composant les fonctions et propriétés utiles. De
plus, il s’agit aussi de bien identifier quels objets sont capables de modifier l’état du com-
posant et quels objets sont capables d’informer sur l’état de ce même composant. En ce
sens, l’implémentation du patron “Façade” se fait par la publication de deux interfaces dis-
tinctes. La première interface, dédiée à la modification de l’état du composant (donc de
ses propriétés), prend le suffixe “Script” et la deuxième interface dédiée à la récupération
des objets gérés par le composant prend le suffixe “View”. Pour l’exemple, le composant
VideoCamera publie donc les deux interfaces IVideoCameraView et IVideoCameraScript.
La Figure 5.4 montre aussi les dépendances entre les composants. Le composant Augmen-
tedReality est dépendant du composant VideoCamera, lui-même dépendant du composant
RecorderPlayer. Dans les sections suivantes, nous proposons de détailler l’architecture et les
liens de ces trois composants.
Chacun des composants que nous avons développés pour réaliser SIGMA va utiliser certains
composants déjà développés dans le système d’information géographique. Voici les noms et
la description des composants utilisés par les trois composants de SIGMA.
Toolkit : Ce composant intègre tous les types de données utilisés dans le système
d’informations sous forme atomique. Ces classes de type de données permettent de
créer des objets “Speed”, “Distance”, “Angle”, etc. Une fois initialisée, la valeur de la
donnée est “cachée” à l’utilisateur permettant à ce dernier de manipuler des objets de
haut niveau capables de s’additionner, de se multiplier ou de se convertir par exemple,
sans connaître la valeur et donc sans pouvoir la modifier ;
121
Architecture logicielle Chapitre 5. SIGMA : SIG Maritime Augmenté
Mobile : Ce composant fourni les services associés à son propre bateau (“Ownship”)
ainsi que tous les autres objets de type équivalent comme les cibles ARPA, AIS, les
hommes à la mer (MOB), etc. Pour chaque mobile, ce composant est en mesure de
fournir différentes données comme la position géographique dans différents référentiels,
l’angle par rapport à son propre navire, la distance, la vitesse et parfois, lorsqu’il s’agit
d’AIS, le nombre de personnes à bord, le port de destination, etc. ;
GpuEngine : Ce composant est le moteur 3D du système d’information géogra-
phique. Surcouche logicielle de la solution graphique DirectX de Microsoft, il permet
d’être relativement indépendant des changements de version de ce dernier ;
DataSettings : Ce composant intègre une seule et unique classe. Son patron de
conception est de type “singleton”. Tous les composants dépendants de celui-ci ac-
cèdent à la même instance de l’unique classe qui le compose. Cette classe, reliée à une
petite interface graphique, permet de créer et de régler certains paramètres lors du
développement avant d’être définitivement intégrés dans le logiciel ;
Framework : Ce composant fournit les services nécessaires à l’organisation du code.
Il intègre par exemple les fonctionnalités permettant aux différents éléments de l’in-
terface graphique de lever des évènements lorsqu’ils sont modifiés par l’utilisateur sous
forme de commandes. Il permet aussi de lever les évènements sur l’état des éléments
de l’interface (sélectionné ou non par exemple) ;
IOBusiness : Ce composant s’occupe de la gestion des différentes interfaces de
connexion disponibles sur l’ordinateur hôte. Qu’il s’agisse par exemple de port sé-
rie, de port USB ou Ethernet, ce composant permet de gérer et d’administrer ces
ports physiques par lesquels transitent les données reçues des différents capteurs em-
parqués ;
IO : Ce composant, extension du composant IOBusiness, propose les services d’ana-
lyse des phrases reçues sur les ports de la machine hôte afin d’en extraire les données.
C’est aussi à ce niveau que les différentes normes de communication (comme le pro-
tocole NMEA2000 ou NMEA183) sont implémentées ;
Radar : Ce composant fourni la gestion des données issues du radar. Les données
“radar” sont traitées et affichées selon des règles “métier” spécifiques. Il permet, entre
autres, l’acquisition des cibles ARPA.
2. Ces objets sont les plus simples possible et héritent seulement de la classe “Object”. Leurs propriétés
détiennent des accesseurs et des mutateurs et sont aussi très simples. Ces classes ne détiennent aucun code
spécifique et le plus souvent aucune méthode publique.
122
Chapitre 5. SIGMA : SIG Maritime Augmenté Architecture logicielle
VideoCamera
IVideoCameraView
IVideoCameraScript
«use» «use»
«use»
Nous avons fait le choix de séparer l’implémentation entre les objets permettant de contrôler
les caméras et les objets permettant d’obtenir les images de ces mêmes caméras. Bien que
cela implique une compléxité supplémentaire au niveau des objets dont le rôle est de mettre
à jour les données (les “updateurs”), cette solution permet d’offrir une souplesse d’utilisation
à la fois au niveau de la couche graphique ainsi que d’un point de vue fonctionnel. En effet, la
conception est ainsi optimisée afin de n’utiliser que les objets nécessaires lorsque les images
d’une caméra sont affichées sur un écran externe et pas dans le système d’information
géographique directement mais qu’il est possible de contrôler la caméra dpuis le système
d’information géographique. Inversement, il devient possible de récupérer les images d’une
caméra qui ne serait pas contrôlable par le système d’information géographique en utilisant
les objets uniquement nécessaires à la connexion vidéo.
123
Architecture logicielle Chapitre 5. SIGMA : SIG Maritime Augmenté
(a) Une vue (2D) de l’interface graphique avec la (b) Une vue (3D) de l’interface graphique avec la
vidéo thermique en haut à droite ainsi que le cône vidéo thermique.
(rouge) indiquant la direction de la caméra.
Figure 5.6: Trois vues de l’interface graphique du système avec une caméra thermique
connectée.
124
Chapitre 5. SIGMA : SIG Maritime Augmenté Architecture logicielle
Avant de présenter le composant principal de notre architecture, nous présentons celui qui
est en charge de l’enregistrement des données. L’objectif étant de proposer à l’utilisateur une
fonctionnalité qui permet de lire une vidéo dans l’environnement du système géographique.
Cette vidéo sera ainsi augmentée par les informations obtenues lors de la sortie en mer ou
de l’observation du trafic.
4.2.1 Fonctionnalité
Cet enregistrement sert aux marins pour réaliser des rapports de missions, pour analyser une
situation en cas d’accident, etc. Les systèmes d’enregistrement intégrés à de tels systèmes
d’information maritimes permettent d’enregistrer les données selon un intervalle de temps
défini par l’utilisateur (entre 20 minutes et plusieurs heures) excepté pour la trace dont la
position est enregistrée toutes les secondes. De plus, les systèmes du marché enregistrent
quelques données proprioceptives du navire, mais pas les données des autres navires détectés
par le radar ou par l’AIS par exemple.
4.2.2 Difficultés
Afin de synchroniser la vidéo avec les données en vue de la lecture, il est nécessaire d’en-
registrer les données dès qu’elles ont été mise à jour, ce qui peut arriver plusieurs fois par
seconde pour de nombreuses données. Le défi est donc double. D’une part, il est néces-
saire de synchroniser la vidéo avec toutes les autres données (à une image de la séquence
vidéo correspond une position du navire, une attitude (roulis, tangage, lacet) du navire,
une orientation de la caméra (azimut et élévation) ainsi que le zoom, mais aussi toutes les
données (position, orientation, vitesse, etc.) des cibles mobiles (ARPA, AIS, etc.). D’autre
part, le nombre important d’informations à enregistrer, leurs taux de rafraichissement et
le temps d’enregistrement (jusqu’à plusieurs jours, 24H/24) nécessitent la mise en place de
stratégies pour limiter l’encombrement des données.
4.2.3 Détails
Ce composant dépend de six autres composants comme l’illustre la Figure 5.7. Outre la dé-
pendance aux composants standards (Toolkit, DataSettings et Framework ), il est dépendant
du moteur graphique permettant de manipuler les textures correspondantes aux images des
différentes caméras. Il est aussi dépendant du composant “Mobile”, permettant d’obtenir
les informations de tous les types de mobiles présents (AIS, ARPA, DSC, PosReport) y
compris son propre navire.
125
Architecture logicielle Chapitre 5. SIGMA : SIG Maritime Augmenté
RecorderPlayer
IRecorderView
IRecorderScript
«use» «use»
«use»
DataSettings Framework IO
CommandControler Sentences
Instance
MasterCollection PhysicalPort
Niveau médian : Cette couche s’occupe de mettre à jour les données reçues depuis
la couche inférieure connectée aux entrées de l’ordinateur vers la
couche supérieure afin d’afficher les mobiles ;
Niveau inférieur : Cette couche s’occupe d’alimenter le niveau médian avec les don-
nées reçues du niveau bas. C’est à ce niveau que la fonctionnalité
d’enregistrement est connectée. Lors de l’enregistrement, le Recor-
derPlayer obtient les données depuis le niveau médian. Lors de la
lecture, le RecorderPlayer supplante le composant Input/output
afin de fournir au niveau médian des données enregistrées précé-
demment ;
Bas niveau : Le niveau bas intègre l’extraction des données depuis les phrases
NMEA. Suivant l’état du RecorderPlayer, ce niveau fournit aussi
les données et la vidéo synchronisée ;
126
Chapitre 5. SIGMA : SIG Maritime Augmenté Architecture logicielle
Niveau supérieur
Niveau médian
OwnshipUpdater TargetUpdater
Niveau inférieur
RecorderPlayer Input/Output
Bas niveau
Les objets “Player” et “Recorder” sont des machines avec un nombre fini d’états. Ces deux
machines sont quasiment identiques et se composent de trois états distincts. Le premier
correspond à l’état “Actif”. Pour le “Recorder ”, il s’agit de l’état dans lequel l’objet enre-
gistre les données qui lui sont fournies par les différents “Updater ” alors que pour l’objet
“Player ”, il s’agit de l’état dans lequel l’objet parcourt la liste des données enregistrées
en fonction de la durée de lecture. Les deux autres états sont “Suspendu” et “Inactif”. Le
premier correspond à un état d’attente alors que le deuxième correspond à un état inactif
(Figure 5.9). L’utilisateur peut changer l’état de ces deux objets en utilisant une petite
interface graphique. D’autres réglages sont aussi accessibles, permettant à l’utilisateur de
choisir par exemple quels types de mobile il souhaite enregistrer ou à quelle vitesse de lec-
ture il souhaite rejouer les données. Le modèle de conception entre cette interface graphique
et les fonctions du composant respecte le format MVVM 3 .
3. Modèle de conception permettant de séparer la vue de la logique et de l’accès aux données en accen-
tuant les principes de binding et d’événement.
127
Architecture logicielle Chapitre 5. SIGMA : SIG Maritime Augmenté
Actif
Enregistrement
Lecture
Pause Reprendre
Stop
Suspendu Inactif
Stop
Figure 5.9: Détails de la machine à nombre fini d’état pour les objets “Recorder ” et “Player”.
128
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul
«use» «use»
«use»
AugmentedReality VideoCamera
Transformer «use» IVideoCameraView
RaE3DProvider IVideoCameraScript
«use»
«use»
«use»
129
Méthode générique de calcul Chapitre 5. SIGMA : SIG Maritime Augmenté
notre choix de l’extraire de l’approche matérielle. Enfin, la troisième catégorie regroupe les
applications dont le calcul de la pose de la caméra est réalisé par la fusion de données
provenant de plusieurs capteurs issus des deux catégories précédentes.
Vision : L’approche générale utilise des techniques d’analyse d’image permettant d’ob-
tenir les paramètres de translation et de rotation de la caméra entre une image
à l’instant t et une image à l’instant t 1. Dans ce contexte, il est nécessaire
de distinguer deux cas. Soit l’application autorise une préparation de l’en-
vironnement dans lequel l’utilisateur évoluera soit la préparation n’est pas
possible ;
Matérielle : l’approche consiste à utiliser les informations issues des capteurs afin de dé-
terminer la position ou l’orientation du dispositif ou de l’utilisateur. Le cap-
teur couramment utilisé pour connaître deux des trois translations est le GPS
(l’altitude n’est pas utilisée eu égard à sa précision souvent insuffisante). Dans
certaines situations, l’utilisation des données secondaires fournies par le GPS
(vitesse, direction, etc.) permettent aussi de déterminer un paramètre de
130
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul
131
Méthode générique de calcul Chapitre 5. SIGMA : SIG Maritime Augmenté
Entrée P Sortie
5.2 Méthode
Bien que cachée à l’utilisateur, cette fonctionnalité est jugée critique puisqu’elle est, par
exemple, utilisée pour afficher convenablement les informations radars en fonction de la
position de l’antenne radar et du poste de pilotage. De plus, une fonctionnalité proche est
déjà présente dans le logiciel, mais ne prend pas en compte l’attitude (roulis et tangage)
du navire. La précision des radars actuels et la future utilisation de cette fonctionnalité
pour une caméra vidéo nous amènent à prendre en compte cette attitude. Cependant, pour
être certains de ne pas créer de régression quant au code déjà présent, nous avons choisi de
développer la nouvelle fonctionnalité en utilisant le procédé des Test Unitaires 5 . Le lecteur
trouvera en annexe les détails de notre approche par tests unitaires et l’implémentation du
protocole de communication NMEA avec la centrale innertielle.
132
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul
Lacet (R↵ )
SL
Roulis (R )
Tangage (R )
Comme en “vision par ordinateur”, nous appellerons ce couple de triplet, la pose du capteur.
Définition d’un vecteur de translation :
2 3
Tx
T r(x,y,z) = 4 Ty 5 (5.1)
Tz
2 3 2 3 2 3
1 0 0 C 0 S C↵ S↵ 0
Rx ( ) = 4 0 C S 5 , Ry ( ) = 4 0 1 0 5 , Rz (↵) = 4 S↵ C↵ 0 5
0 S C S 0 C 0 0 1
(5.2)
L’opérateur de rotation est donc défini par la matrice suivante :
0 1
C↵ C C↵ S S S↵ C C↵ S C + S↵ S
R(↵, , ) = @ S↵ C S↵ S S + C↵ C S↵ S C C↵ S A (5.3)
S C S C C
Nous allons doter les notations matricielles précédentes d’un facteur d’échelle en introdui-
sant une coordonnée supplémentaire. Cela nous permet donc d’utiliser la représentation en
coordonnées homogènes afin de définir un opérateur de passage d’un repère vers un autre
(Figure 5.13).
133
Méthode générique de calcul Chapitre 5. SIGMA : SIG Maritime Augmenté
Zj
Zi
Rj
Ri Yj
Xj
Yi
Xi
j
Ti
La pose d’un capteur sur le navire est donc définie par une matrice homogène de Rotation
(5.3) et de Translation (5.1) avec un facteur d’échelle unitaire :
i i
i Rj T rj
Tj = (5.4)
000 1
Nous proposons en Figure 5.14 un exemple d’une configuration des différents capteurs à
bord. Il s’agit d’un exemple pour illustrer le déroulement des calculs sans pour autant
remettre en cause la généricité de la méthode proposée puisque toutes les positions des
capteurs sont données par l’utilisateur lors de la configuration du logiciel.
Comme nous l’avons précisé en Section 5.3, la définition du repère dans lequel sont posi-
tionnés et orientés les points sur le bateau provient du CCRP imposé par l’Organisation
Maritime Internationnale (OMI). L’origine du repère est positionnée à la proue (nez) du
bateau. L’axe y est longitudinal et l’axe x est transversal. L’altitude est sur l’axe z. Un
exemple de configuration est proposé en Figure 5.14.
134
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul
Y
Caméra
Cabine Y
SL
Centrale
GPS
Inertielle
Figure 5.14: Exemple de configuration des capteurs dans le Repère Bateau (RB).
Nous avons donc déclaré les différents repères nécessaires par rapport au repère bateau
(RB) en suivant le formalisme de l’équation (5.4).
– RB
TSL : définition du repère SL dans RB
– RB
TBC : définition de la base de la caméra dans RB
– RB
TGP S : définition du boîtier GP S dans RB
– RB
TRT L : définition du boîtier de la centrale inertielle dans RB
Le calcul des opérateurs permettant de connaître la pose des boîtiers GPS et RTL (boîter
de la centrale inertielle) dans le repère SL en considérant ces boîtiers solidement fixés au
navire s’écrivent :
SL SL 1
TGP S = TGP S · RB TGP S
SL SL 1
TRT L = TRT L · RB TRT L
135
Méthode générique de calcul Chapitre 5. SIGMA : SIG Maritime Augmenté
– TGP Sm : repère de la mesure GPS dans le monde. Cet opérateur représente une trans-
W
lation pure uniquement sur deux composantes (il n’est pas possible d’utiliser l’altitude
donnée par le GPS à cause de son imprécision).
– W TRT Lm : repère de la mesure de la centrale inertielle dans le monde. Cet opérateur
représente une rotation pure.
RC
D1
D2
RBC
Nous avons choisi de définir le modèle géométrique de la caméra par cinq transformations
permettant de passer du repère de la base de la caméra (RBC ) au repère de la tête de la
caméra (RC ). L’opérateur permettant de connaître la pose de la tête de la caméra dans sa
base est donc identifié par cinq transformations qui sont :
1. Une Translation de D1 (la “hauteur” de la caméra)
2. Une Rotation d’azimut
3. Une Rotation d’élévation
4. Une Translation de D2 (le “décalage” de la lentille)
5. Une Rotation de roulis (la caméra ne dispose pas physiquement de ce degré de liberté.
Nous avons malgré cela modélisé la caméra de cette manière afin d’utiliser ce degré
de liberté plus tard).
BC
TC = T rd1 · R↵ · R · T rd2 · R
136
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul
SL RB 1 RB
TBC = TSL · TBC
SL
TC = BC TC ·SL TBC
Il faut maintenant connaître la pose du repère SL dans le monde. La pose de ce repère
dépend donc de quatre opérateurs :
1. Mesure GPS
2. Mesure Centrale Inertielle (RTL)
3. Correction RTL (dans le cas où le boîtier de la centrale n’est pas parfaitement posi-
tionné)
4. Décalage de la position du boîtier GPS dans SL car dans une même boucle de calcul,
la mesure GPS ne change pas, il faut donc “tourner autour” du boîtier GPS.
W
TSL =W TGP Sm ·W TRT Lm ·SL TRT L ·SL TGP S (5.5)
Il est nécessaire de faire attention car, l’opérateur calculé dans l’équation (5.5) contient une
composante d’altitude. En effet, cela provient du fait que l’on a considéré que le repère de
la mesure GPS devait être invariant aux rotations et aux translations durant la boucle de
calcul. Cette composante en z implique que le navire (ou plutôt son centre de rotation)
vole ou coule en fonction des mouvements de rotation qu’il subit. Pour cela, nous faisons
l’hypothèse que le centre de rotation du navire que nous avons défini en SL doit rester au
niveau de l’eau, donc ne doit pas avoir d’altitude. Il faut donc supprimer la composante
en z dans l’opérateur W TSL . Nous avons maintenant tous les opérateurs nécessaires pour
connaître la pose des différents capteurs dans le monde.
W
TGP S =SL TGP S ·W TSL
W
TRT L =SL TRT L ·W TSL
W
TBC =SL TBC ·W TSL
W
TC =SL TC ·W TSL
W RB 1 W
TRB = TSL · TSL (5.6)
137
Méthode générique de calcul Chapitre 5. SIGMA : SIG Maritime Augmenté
5.6 Compensation
Nous souhaitons compenser les mouvements de la caméra imposés par les mouvements du
bateau afin d’améliorer la qualité du flux vidéo. Nous souhaitons utiliser les deux degrés
de liberté de la caméra pour contrecarrer les mouvements du navire. L’objectif est donc
de définir une pose souhaitée de la caméra dans le monde, puis de calculer les paramètres
articulaires à appliquer à la caméra pour que l’objectif soit maintenu malgré les mouvements
du navire. Pour cela, il est nécessaire de déterminer le modèle géométrique inverse (MGI)
de la caméra. Ce modèle lie l’espace articulaire associé aux différentes liaisons de la caméra
avec l’espace opérationnel dans lequel est définie la situation de la tête de la caméra.
X sin(q2 ) + Y cos(q2 ) = Z
Les solutions sont donc (avec X 2 + Y 2 Z 2) :
8 p
>
> X Z + " X2 + Y 2 Z2
< sin(q2 ) =
p2 + Y 2
X avec " = ±1
>
> Y Z + " X2 + Y 2 Z2
: cos(q2 ) =
X2 + Y 2
Si non
⇢
sin(q2 ) = X ·Z
cos(q2 ) = X ·Z
Et enfin, l’équation permettant d’obtenir q3 :
138
Chapitre 5. SIGMA : SIG Maritime Augmenté Méthode générique de calcul
⇢
sin(q3 ) = cos(q1 ) + Ay · sin(q1 )
cos(q3 ) = Sx · cos(q1 ) + Sy · sin(q1 )
W 1 W
T = TBC · TCt0
Le modèle géométrique précédemment calculé nous permet donc de déterminer q1 , q2 et q3
qui entrent dans la définition de W TBC pour satisfaire la condition “T est une constante”.
Avec cet opérateur, il est maintenant possible de calculer l’opérateur qui définit la pose de
la tête de la caméra dans le repère associé au centre de rotation du navire puis finalement,
dans le repère associé au monde :
SL
TC =BC TC ·SL TBC
W
TC =SL TC ·W TSL
139
Le meilleur des deux mondes : méthode hybride Chapitre 5. SIGMA : SIG Maritime Augmenté
des nombres très importants. Deuxièmement, il faut veiller à ne pas confondre les mètres
Mercator et les mètres “classiques”. La projection de Mercator est une projection cylindrique
du globe terrestre sur une carte plane (Figure 5.16a) formalisée par Gerardus Mercator en
1569. La précision des calculs est en effet variable en fonction de la position du navire dans
le monde. L’erreur était d’autant plus importante que le navire était éloigné du centre de
projection du système. Cependant, cette erreur est faible en comparaison de la première
source d’erreur, car elle ne dépasse pas 20 centimètres à l’échelle mondiale (Figure 5.16b) .
0.1
-
(a) Système de Projection Mercator. (b) Erreur de positionnement (distance en mètre entre le
point calculé et le point souhaité).
La résolution de la première cause d’imprécision peut être mise en œuvre par deux ap-
proches. La première consiste à développer des outils matriciels informatiques utilisant des
données au format “double” alors que la bibliothèque DirectX propose des outils matriciels
utilisant des données au format “float”. La deuxième solution consiste à exécuter toute la
méthode de calcul en considérant la position du navire “en zéro” dans le repère géodésique.
Puis, de prendre en compte la position du navire (les informations issues du récepteur GPS)
uniquement lorsque l’on cherche à connaître la position d’un point du navire dans le monde.
C’est cette deuxième méthode que nous avons choisie. Le “Transformer” exécute dans un
premier temps tous les calculs au voisinage de l’origine du repère géodésique puis dans un
second temps translate les résultats obtenus par les valeurs du GPS.
140
Chapitre 5. SIGMA : SIG Maritime Augmenté Le meilleur des deux mondes : méthode hybride
Horizon 1
↵
R
R↵ Horizon 2
141
Le meilleur des deux mondes : méthode hybride Chapitre 5. SIGMA : SIG Maritime Augmenté
142
Chapitre 5. SIGMA : SIG Maritime Augmenté Le meilleur des deux mondes : méthode hybride
Figure 5.19: Présentation des différentes étapes de notre analyse d’image sur une image
thermique.
143
Le meilleur des deux mondes : méthode hybride Chapitre 5. SIGMA : SIG Maritime Augmenté
(a) Analyse d’image sans utiliser la centrale iner- (b) Analyse d’image en utilisant la centrale iner-
tielle. Une vague est détectée comme étant l’hori- tielle. La vague n’est pas détectée.
zon.
(c) Flux vidéo non thermique. (d) Flux vidéo non thermique.
(e) Un cas où l’horizon est quasiment invisible. (f) Flux vidéo non thermique avec brume.
6.3 Performances
Les évaluations ont été réalisées sur un ordinateur équipé d’un Intel(T M ) Core 2 Duo ca-
dencé à 2.66GHz. Les tests ont été réalisés sur plusieurs séquences d’images dans différentes
situations et expositions. Nous présentons les résultats concernant trois séquences d’images
dont l’une étant une séquence d’image thermique. Notre algorithme de détection identifie
144
Chapitre 5. SIGMA : SIG Maritime Augmenté Le meilleur des deux mondes : méthode hybride
5,000
Nombre d’image
4,000
3,000
Nombre de séquences
(a) Évaluation de la détection de l’horizon.
320x240
55
640x480
Images par seconde
50
45
704x480
40
35
960x540
30
145
Le meilleur des deux mondes : méthode hybride Chapitre 5. SIGMA : SIG Maritime Augmenté
Zone Ciel + Terre : la vidéo est affichée à 80% et les données numériques sont affichées
à hauteur de 20%. En effet, il ne faut pas supprimer complètement la cartographie car,
dans certaines situations, à l’approche des côtes par exemple, les montagnes peuvent
servir de point de repère aux marins. Etant donné que la cartographie modélise aussi
les montagnes, il ne faut surtout pas supprimer ces informations. Nous utilisons une
fonction exécutée par la carte graphique définie par la bibliothèque DirectX (HLSL)
permettant de réaliser une interpolation linéaire de la transparence entre cette zone
et la zone inferieure ;
Zone Mer : la vidéo est affichée à 20% et les données numériques sont affichées à hauteur
de 80%. En effet, il ne faut pas supprimer complètement la vidéo car, dans certaines
situations, à l’approche des ports par exemple, d’autres bateaux peuvent être proches
et visuellement “en dessous” de la ligne d’horizon. Il ne faut pas rendre la vidéo
totalement transparente au risque de faire disparaître les autres navires environnants.
La transparence de chaque zone est réglée par défaut avec les valeurs précédemment pré-
sentées. Cependant, l’utilisateur garde le droit de modifier ces valeurs dès qu’il le pense
nécessaire en utilisant des curseurs linéaires dans l’interface graphique du système d’infor-
mation géographique comme illustré en Figure 5.22b. Un exemple des différents cas est
disponible en Figure 5.23.
Ciel + Terre
Mer
(a) Définition des zones. (b) Interface permettant les différents réglages
d’opacité.
Figure 5.22: Définition des différentes zones de l’imageet interfaces pour les réglages.
146
Chapitre 5. SIGMA : SIG Maritime Augmenté Le meilleur des deux mondes : méthode hybride
(a) Vidéo thermique dans les deux zones. Augmen- (b) Vidéo thermique augmentée par une route vir-
tations visuelles par objets vectoriels de type poly- tuelle à suivre et une bouée.
gone pour la côte et objet vectoriel ponctuel pour
une bouée. Cet exemple est un cas de réalité à com-
préhension augmentée.
(c) Vidéo thermique dans la zone supérieure, cou- (d) Vidéo thermique et objet synthétiques dans la
leur de la cartographie dans la zone inferieure et zone inferieure et modèle numérique de terrain dans
augmentations par des objets synthétiques vecto- la zone supérieure. Cas de visibilité augmentée.
riels. L’eau étant “remplacée” par la couleur de la
cartographie, le sens de la scène est rectifié. C’est
un cas de visibilité augmentée.
Figure 5.23: Quelques exemples du mélange entre le flux vidéo thermique et la cartographie
ainsi que des augmentations vectorielles.
147
Le meilleur des deux mondes : méthode hybride Chapitre 5. SIGMA : SIG Maritime Augmenté
(a) Image originale extraite d’une séquence (b) Image extraite d’une séquence d’images avec vi-
d’images sans mélange avec la cartographie. sualisation de la cartographie. La signification de la
scène est rectifiée (Chapite 2, Section 2.1) afin de
proposer les informations de profondeur pour gui-
der le navigateur. Deux informations ponctuelles
symbolisant des bouées ont aussi été ajoutées. C’est
une combinaison de réalité à compréhension aug-
mentée et de visibilité augmentée.
Les Figures 5.24 et 5.25 présentent différentes vues égocentrées proposées à l’utilisateur.
Ces figures illustrent l’intérêt du mélange entre la cartographie et la vidéo. Il peut s’agir
soit uniquement de réalité à compréhension augmentée, soit d’une combinaison de réalité
à compréhension augmentée et de réalité à visibilité augmentée. L’utilisateur a la possibi-
lité de changer l’orientation de son point de vue dans l’environnement cartographique. En
modifiant ce point de vue, il peut voir des informations issues de la vidéo lorsque son point
de vue coïncide avec l’orientation de la caméra. Ainsi, la cartographie est enrichie par la
présence des navires ou des grues sur la vidéo comme le présente la Figure 5.25a, mais la
vidéo est elle-même enrichie par les pontons de la cartographie, par les points de sonde ou
les bouées de signalisation comme illustré en Figure 5.25b ou en Figure 5.24b.
(a) Le flux vidéo thermique permet d’aperce- (b) Les navires visibles sur le flux vidéo semblent
voir deux navires à quai. Une transparance à être positionnés sur la cartographie le long des
été appliquée à la vidéo permetant de visualiser pontons. La ligne verte indique l’horizon et le
les deux sources d’information simultanément. On rectangle rouge indique un autre navire, celui-ci
peut ainsi voir les grues depuis la vidéo positionnées étant en mouvement.
sur le quai.
148
Chapitre 5. SIGMA : SIG Maritime Augmenté Une application : la détection de cible
7.1 Implémentation
La solution proposée par Samama (2010) nécessite la mise en place d’une communication
avec un serveur web. Nous envoyons une requête spécifique à ce serveur et en retour, celui-
ci nous envoie une réponse dans un format XML. Le package “Root API ” présenté en
Figure 6.6 de l’annexe permet d’analyser la requête XML pour créer les objets contenant les
données issues de l’analyse d’image. Le package “ASV API ” est une surcouche permettant
de manipuler des objets de plus haut niveau, dont les propriétés utilisent les classes du
composant “Toolkit” du système d’information géographique. Le passage entre les objets
bruts et les objets de haut niveau se fait par une classe statique développée pour l’occasion
(non illustrée sur le diagramme de classe) offrant tous les outils nécessaires aux différentes
conversions. Les données reçues sont utilisées pour mettre en valeur les navires directement
sur l’image provenant de la caméra. On voit dans la Figure 5.26 que chaque navire détecté
est entouré d’un cadre rouge et identifié par une valeur unique.
Figure 5.26: Détection des navires sur une image thermique grand angle (130°) avec l’al-
gorithme de Samama (2010).
149
Une application : la détection de cible Chapitre 5. SIGMA : SIG Maritime Augmenté
et font appliquer la réglementation pour la pêche (zones réservées). Ils surveillent aussi les
pollutions maritimes ainsi que le territoire côtier. La surveillance des activités maritimes se
fait par l’identification des navires et le signalement de navires suspects aux autorités, par
la gestion des entrées et des sorties des navires, etc. Les sémaphores sont équipés avec le
même matériel que l’on trouve sur un navire (AIS, radar, cartographie éléctronique, etc.).
Par l’utilisation d’une caméra thermique, nous proposons de détecter les navires sur l’image
de la caméra et de calculer la position géographique des ces navires. En utilisant la méthode
proposée par Samama (2010) qui consiste à appliquer le principe du sextant basé sur la
position de l’horizon dans l’image, il est possible de déterminer le cap et la distance qui
sépare le point de vue de la caméra de chaque cibles détectées sur la vidéo. Enfin, la position
géographique de la caméra étant connue, il est possible d’estimer la position géographique
des cibles sur la surface de la terre par l’utilisation de la projection WSG84 9 par exemple
avec en paramètre d’entrée la position géographique de la caméra ainsi que le cap et la
distance des cibles.
Nous utilisons cette position afin de créer un objet ponctuel géoréférencé dans le système
d’information géographique en utilisant les classes du composant “Mobile”. En effet, ces
objets sont des cibles au même titre que le sont les cibles AIS ou ARPA (issues du radar).
Une illustration des objets géoréférencés dans le système d’information géographique est
présentée dans la Figure 5.27. La grille dans la partie inférieure de l’écran indique toutes
les informations que nous fournissons pour chaque navire de la vidéo comme un nom (arbi-
traire), un identifiant unique, sa position, le cap, la distance, etc.
150
Chapitre 5. SIGMA : SIG Maritime Augmenté Une application : la détection de cible
Figure 5.27: Les points rouges sur la cartographie sont les navires détectés sur la vidéo dont
la position a été estimée à partir des données de distance et de cap. Le tableau regroupe les
informations de toutes les cibles. Un cadre permettant de faire apparaître l’image de la cible
ainsi que ses informations est accessible en cliquant simplement sur l’objet qui représente
un navire. Le quart de cercle rouge illustre toujours le champ de vision de la caméra.
En sélectionnant une cible, le contrôleur peut voir une vignette du navire ainsi que certaines
informations comme sa position et son cap. Mais plus que l’ajout d’une grille, nous voulons
faciliter la mise en correspondance entre le navire sur la vidéo et les données s’y rapportant.
Pour cela, nous utilisons notre fonctionnalité permettant de géoréférencer la vidéo dans la
scène 3D du système d’information géographique. Dans cet exemple, la vidéo est issue de
deux caméras dont l’angle de vision est de 68° chacune. Chaque image est donc géoréférencée
dans la scène 3D du système d’information géographique.
151
Une application : la détection de cible Chapitre 5. SIGMA : SIG Maritime Augmenté
Figure 5.28: Les objets synthétiques représentant les navires sur la vidéo sont géoréféren-
cés dans l’environnement du système d’information géographique ainsi que la vidéo. Pour
illustrer le recalage au lecteur, un trait relie son propre navire (en rouge) jusqu’à l’objet qui
représente le navire extrait de la vidéo puis se continue jusqu’à ce qu’il croise la vidéo. On
voit bien que chaque cible se projette sur les cibles de la vidéo.
Pour illustrer la correspondance entre les objets synthétiques dans l’environnement de car-
tographie et les cibles sur la vidéo, nous proposons de tracer une droite depuis la position
calculée dans l’environnement géographique de la tête de la caméra et chacun des objets
(symboles circulaires verts). Cette droite se prolonge jusqu’à atteindre la vidéo. La Fi-
gure 5.28 montre au lecteur le tracé de ces droites. Cette vue allocentrée n’est pas proposée
à l’utilisateur. La vue qui lui est proposée est une vue à la première personne. Nous fixons
la position 10 du point de vue de la scène 3D afin qu’il corresponde à la position de la tête
de la caméra réelle dans l’environnement réel. L’utilisateur peut modifier l’orientation sans
limitation d’angle de la vue dans la scène, lui permettant ainsi de parcourir toute la zone
augmentée par la vidéo, ou plus s’il le souhaite.
10. Nous ne fixons pas l’orientation pour permettre à l’utilisateur de naviguer parmi le vaste champ de
vision de la caméra.
152
Chapitre 5. SIGMA : SIG Maritime Augmenté Une application : la détection de cible
(a) Chaque cible est augmentée d’un symbole (b) On peut aussi voir certaines informations
cliquable et encadré par un rectangle rouge si provenant de la cartographique comme un point
l’utilisateur décide de les afficher. de sonde dans cet exemple.
(c) En cliquant sur le symbole, l’utilisateur obtient plus d’information sur la cible comme sa position, son
cap ou une image du navire concerné.
Dans la Figure 5.29, nous montrons quelques exemples d’une situation de surveillance mari-
time avec la vue proposée à l’utilisateur. Chaque navire sur la vidéo est identifié de manière
unique et augmenté d’un symbole dans le système d’information géographique. L’utilisateur
peut ainsi cliquer sur le symbole comme s’il cliquait sur le navire pour obtenir les infor-
mations le concernant. Chacunes des cibles détectées est encadrée par un rectangle rouge
et augmentée par un symbole cliquable permettant à l’utilisateur d’obtenir plus d’infor-
mations sur la cible en question. De plus, la vidéo est mélangée à la cartographie ce qui
laisse appraître d’une part des informations ponctuelles (point de sonde, bouées, etc.) et
d’autre part la couleur de base de la cartographie, les pontons, etc. Ce sont des cas de
réalité à compréhension augmentée (informations des cibles) combinée avec de la visibilité
augmentée (apparition de la cartographie sous l’eau).
153
Chapitre 5. SIGMA : SIG Maritime Augmenté Conclusion
8 Conclusion
Dans ce chapitre nous avons présenté l’architecture matérielle générale et l’architecture lo-
gicielle de SIGMA. Nous avons présenté plus particulièrement trois composants logiciels qui
ont été développés spécifiquement pour SIGMA. Nous avons ensuite présenté la méthode
générique de calcul de la position et de l’orientation de la tête d’une caméra orientable em-
barquée à bord. La prise en compte des contraintes spécifiques au métier maritime comme
le CCRP et le protocole de communication NMEA 183 permet au composant de réalité aug-
mentée de réaliser le géoréférencement du flux vidéo dans l’environnement cartographique
du système d’information géographique. Nous proposons ensuite une méthode hybride origi-
nale pour le géoréférencement de la vidéo par l’utilisation combinée d’une centrale inertielle
et d’une analyse d’image sur un flux vidéo thermique ou non thermique. SIGMA a été conçu
pour gérer plusieurs caméra simultanément et permettre ainsi d’obtenir une couverture des
environs jusqu’à 360°.
D’un point de vue moins technique, nous avons présenté les différentes fonctionnalités ren-
dues possibles par l’implémentation des composants précédemment présentés comme la
détection de cibles permettant la création d’objets synthétiques dans l’environnement de
cartographie. Nous avons aussi présenté un cadre d’utilisation de ce nouvel environnement
mixte crée par le mélange de la cartographie et de la vidéo.
155
Chapitre 6
Conclusion Générale
Rappel du contexte
Bien que considérée comme une zone de loisir est de détente par le grand public, l’environ-
nement maritime reste avant tout un lieu dangereux et hostile. Qu’elles soient à terre ou en
mer, les activités relatives au domaine maritime sont étonnantes en nombre et en diversité.
Depuis les premières cartes maritimes papiers jusqu’aux systèmes informatiques embarqués
actuels, depuis la corde à nœuds jusqu’aux sondeurs multifaisceaux, la technologie a trouvé
une place de choix dans cet environnement pour lequel chaque année voit son lot d’évo-
lutions. Aujourd’hui, le contexte économique morne et le contexte sociétal enclin à une
responsabilisation environnementale mènent les importateurs et exportateurs à privilégier
le transport maritime, moins polluant et moins couteux par unité transportée. Cependant,
cette augmentation du trafic maritime, auquel viennent s’ajouter les métiers de la pêche
pour nourrir une population toujours plus nombreuse, les activités de loisirs comme la voile
ou les sports diverses augmentent d’autant les risques d’accident dont les conséquences
matérielles, corporelles ou environnementales sont parfois désastreuses. Dans une étude
commandée par l’Organisation Maritime Internationnale (OMI), Jie et Xian-Zhong (2008)
ont identifié que 90% des blessés à travers le monde lors d’incidents ou d’accidents liés
au domaine maritime sont causés par des erreurs humaines et plus particulièrement lors
de l’utilisation d’outils d’aide à la navigation. La problématique, loin d’une problématique
spécifique à la navigation, provient de la multiplicité des sources d’informations dont dis-
pose l’utilisateur. Le passage de l’une à l’autre peut entraîner des “ruptures de contexte”
d’autant plus si les informations sont incohérentes. Dans ce mémoire, nous avons donc pro-
posé une solution technique permettant de mettre en commun des informations nécessaires
à la navigation maritime dans une vue unique. Cette vue permet de contextualiser les in-
formations afin de limiter ou d’éliminer le phénomène de désorientation spatio-temporelle
que l’on observe dans certaines situations.
Nos apports
La problématique liée à cette thèse nous a amenés à utiliser la réalité augmentée pour
réaliser la fonctionnalité permettant d’associer deux sources d’informations préalablement
séparées, mais complémentaires puisque représentant des informations communes. Ce fai-
sant, nous nous sommes d’abord penchés sur la technologie de la réalité augmentée en com-
mençant par proposer une finalité ainsi qu’une définition technique. Par notre analyse de
la littérature et basée sur une approche sensorimotrice de la perception et de l’action, nous
proposons un modèle d’immersion et d’interaction d’un individu dans un environnement
de réalité augmentée. Ce modèle, nommé 3i2RA, basé sur le modèle 3i2 proposé par Fuchs
et al., laisse apparaître une certaine symétrie entre la perception et la perception désirée
ou encore entre l’action sur l’environnement naturel et l’action avec l’interface motrice du
système. La disposition, de part et d’autre de l’utilisateur, de l’environnement naturel et
des technologies utilisées pour créer l’environnement augmenté met en exergue que c’est
Chapitre 6. Conclusion Générale
bien l’utilisateur, à un niveau cognitif, qui créer cet environnement augmenté dans lequel il
évolue avec cohérence dans la mesure ou les incohérences sensorimotrices sont faibles.
D’un point de vue plus pratique, nous proposons premièrement une méthode permettant
de faire le lien entre une modélisation de l’activité d’un individu sous forme de tâche et
une méthode agile de développement logiciel. Ainsi, les futurs développements du logiciel
ne seront plus guidés uniquement par le responsable du produit qui pense savoir ce qui
est bon pour le ou les utilisateurs, mais aussi par une démarche scientifique d’analyse du
comportement des individus.
Deuxièmement, nous proposons un outil d’aide à la navigation permettant de contextualiser
les informations provenant de la cartographie par le mélange, en temps réel, de cette dernière
et d’un flux vidéo. La difficulté provient de la sélection des informations pertinentes de
chacune des sources pour aboutir à une vue cohérente pour l’utilisateur.
Limitations
Concernant notre démarche de conception, il faut noter qu’elle nécessite une approche
parfois incompatible avec les exigences commerciales d’un produit industriel puisqu’elle
participe à l’allongement de son cycle de définition. Elle doit donc être mise en place le plus
tôt possible dans la définition du produit. De plus, comme nous en avons fait l’expérience
dans le Chapitre 4, le domaine maritime rend les observations en situation assez difficile.
En effet, de nombreux paramètres peuvent influencer les observations. La météorologie,
le coût d’une sortie, le caractère imprévisible et la dangerosité des autres usagers, le fait
que certaines situations ne sont observables qu’au bout de plusieurs heures de navigation
(alors que l’élément à observer ne dure que quelques secondes) sont quelques exemples des
difficultés rencontrées lors de ce type de démarche.
Concernant SIGMA, la première limitation est celle que nous avons déjà identifiée en In-
troduction du Chapitre 5. En effet, les avancées techniques en terme d’affichage ne nous
permettent pas d’utiliser des dispositifs portés mettant en œuvre une réalité augmentée
directe. Notre application est donc soumise aux problématiques liées à la différence entre le
point de vue de l’utilisateur sur son environnement réel et son point de vue dans l’environ-
nement de SIGMA.
Perspectives
D’un point de vue théorique, il est nécessaire d’approfondir encore le modèle 3i2RA. L’ob-
jectif serait dans un premier temps d’en dégager une méthode de conception de systèmes
utilisant la réalité augmentée. Il s’agirait par exemple de proposer un outil dédié aux concep-
teurs permettant de les assister dans leurs choix d’une technologie particulière pour réaliser
une application de réalité augmentée en fonction des effets qu’ils souhaitent obtenir sur l’uti-
lisateur, l’objectif étant d’optimiser l’immersion et l’interaction de l’utilisateur en fonction
de l’application, du matériel, du contexte, etc.
D’un point de vue plus pratique, maintenant que nous avons mis en œuvre un cadre de
développement pour la fusion des informations provenant de la cartographie et d’un flux
vidéo et après avoir montré un cas d’utilisation dans le domaine de la surveillance maritime,
nous souhaiterions développer des fonctionnalités encore plus spécifiques au métier mari-
time. Nous pensons par exemple à la meilleure façon d’informer l’utilisateur d’un risque
de collision, de lui fournir les informations nécessaires aux manœuvres ou à la position
du chalut pour les pêcheurs, etc. Du point de vue de l’analyse d’image, nous souhaite-
rions, toujours dans une optique d’apporter des fonctionnalités métier, ajouter un module
158
Chapitre 6. Conclusion Générale
de reconnaissance du type de navire (voilier, navire pneumatique, cargo, etc.). Enfin, nous
l’avons pas montré dans ce mémoire, mais il est possible d’ajouter les informations radar
sur la cartographie (il s’agit d’un “layer” de tous les échos radars). Nous souhaitons explorer
les possibilités offertes par la fusion des informations radars et vidéo pour l’utilisateur.
D’un point de vue matériel, deux perspectives s’offrent à nous pour l’instant. Premièrement,
si le choix d’une réalité augmentée indirecte nous a été imposé d’une part par le matériel
et d’autre part par les activités des marins, nous souhaiterions approfondir la possibilité
d’équiper l’utilisateur. Une première direction dont nous avons déjà parlé dans ce mémoire
consiste à utiliser un système de projection à l’intérieur de la cabine du navire ou sur les
vitres du sémaphore. Deuxièmement, nous souhaiterons évaluer les apports de l’utilisation
d’un dispositif portable lié au système principal et dédié à certaines fonctionnalités. Nous
pensons par exemple à l’utilisation de tablettes dont le marché se démocratise, y compris
dans le domaine maritime puisque ce type de dispositif tend à remplacer les plans papiers
dans les constructions navales par exemple.
Même si toutes ces perspectives ne seront pas abordées, les travaux entamés dans cette thèse
nous permettent d’envisager encore de nombreuses évolutions. Pour ce faire, des contacts ont
été pris avec des équipementiers maritimes afin de déployer SIGMA sur différents bâtiments
dans le but de passer à une phase d’industrialisation du premier module de réalité augmentée
intégré dans un système d’information géographique maritime.
159
Bibliographie
A
Résolution A817/19. Normes de fonctionnement pour les sytèmes de visualisation des cartes
électroniques et d’information (ECDIS). Organisation Maritime Internationnale (OMI).
Kikuo Asai, Tomotsugu Kondo, Hideaki Kobayashi, et Akira Mizuki. A geographic surface
browsing tool using map-based augmented reality. In VIS’08 : Proceedings of the 2008
International Conference Visualisation, pages 93–98, Washington, DC, USA, 2008. IEEE
Computer Society. ISBN 978-0-7695-3271-4. doi : [Link]
Claude Aubry. SCRUM : Le guide pratique de la méthode agile la plus populaire. DUNOD,
Paris, 2010.
Ronald Azuma, Bruce Hoff, Howard Neely III, et Ron Sarfaty. A motion-stabilized outdoor
augmented reality system. In Proceedings of IEEE Virtual Reality, Houston, pages 252–
259. IEEE, 13-17 March 1999.
Ronald Azuma, Yohan Baillot, Reinhold Behringer, Steven Feiner, Simon Julier, et Blair
MacIntyre. Recent advances in augmented reality. IEEE Computer Graphics and Appli-
cations, 21(6) :34–47, 2001. ISSN 0272-1716. doi : [Link]
10.1109/38.963459.
BIBLIOGRAPHIE BIBLIOGRAPHIE
B
Eric R. Bachmann, Robert B. McGhee, Xiaoping Yun, et Michael J. Zyda. Inertial and
magnetic posture tracking for inserting humans into networked virtual environments. In
VRST ’01 : Proceedings of the ACM symposium on Virtual reality software and techno-
logy, pages 9–16, New York, NY, USA, 2001. ACM. ISBN 1-58113-427-4. doi : http://
[Link]/10.1145/505008.505011. URL [Link]
id=505011&type=pdf&coll=GUIDE&dl=GUIDE&CFID=77828098&CFTOKEN=73031136.
Kent Beck, Mike Beedle, Arie van Bennekum, Alistair Cockburn, Ward Cunningham, Mar-
tin, Fowler, James Grenning, Jim Highsmith, Andrew Hunt, Ron Jeffries, Jon Kern, Brian
Marick, Robert C. Martin, Steve Mellor, Ken Schwaber, Jeff Sutherland, et Dave Thomas.
Manifesto for agile software development. http: // agilemanifesto. org/ , 2001.
Steve Benford, Holger Schnädelbach, Boriana Koleva, Rob Anastasi, Chris Greenhalgh, Tom
Rodden, Jonathan Green, Ahmed Ghali, Tony Pridmore, Bill Gaver, Andy Boucher, Bren-
dan Walker, Sarah Pennington, Albrecht Schmidt, Hans Gellersen, et Anthony Steed. Ex-
pected, sensed, and desired : A framework for designing sensing-based interaction. ACM
Trans. Comput.-Hum. Interact., 12(1) :3–30, 2005. ISSN 1073-0516. doi : [Link]
[Link]/10.1145/1057237.1057239. URL [Link]
id=1057239&type=pdf&coll=GUIDE&dl=GUIDE&CFID=104939479&CFTOKEN=94790696.
Henri Bergson. Matière et mémoire. Essai sur la relation du corps à l’esprit. Première
édition : 1939. Paris : Les Presses universitaires de France, 1965, 72e édition. Collection :
Bibliothèque de philosophie contemporaine, 1939.
Jacques Bertin. Sémiologie Graphique. Les diagrammes, les réseaux, les cartes. La Haye,
Mouton, Gauthier-Villars, EHESS, Paris, 1967.
162
BIBLIOGRAPHIE BIBLIOGRAPHIE
Roger Brunet. La composition des modèles dans l’analyse spatiale. L’Espace géographique,
4, 1980.
C
Sybille Caffiau, Dominique L. Scapin, Patrick Girard, Mickaël Baron, et Francis Jambon.
Increasing the expressive power of task analysis : Systematic comparison and empirical
assessment of tool-supported task models. Interacting with Computers, 22 :569–593, June
2010.
Gaëlle Calvary, Joëlle Coutaz, David Thevenin, Quentin Limbourg, Laurent Bouillon, et
Jean V. A unifying reference framework for multi-target user interfaces. Interacting with
Computers, 15 :289–308, 2003.
T.P. Caudell et D.W. Mizell. Augmented reality : an application of heads-up display tech-
nology to manual manufacturing processes. In System Sciences, 1992. Proceedings of the
Twenty-Fifth Hawaii International Conference on, volume ii, pages 659 –669 vol.2, jan
1992. doi : 10.1109/HICSS.1992.183317.
Jui Lin Chen et Kay M. Stanney. A theoretical model of wayfinding in virtual environments :
Proposed strategies for navigational aiding. Presence : Teleoper. Virtual Environ., 8 :
671–685, December 1999. ISSN 1054-7460. doi : 10.1162/105474699566558. URL http:
//[Link]/[Link]?id=1246851.1246858.
Alexis Clay, Elric Delord, Nadine Couture, et Gaël Domenger. Augmenting a ballet dance
show using the dancer’s emotion : conducting joint research in Dance and Compu-
ter Science. In Proceedings of International Conference on Arts and Technology (Art-
sIT2009), volume à paraître, YiLan, Taïwan, Province De Chine, September 2009. URL
[Link] 9 pages.
163
BIBLIOGRAPHIE BIBLIOGRAPHIE
D
W. Dangelmaier, M. Fischer, J. Gausemeier, C. Matysczok, et B. Mueck. Virtual and
augmented reality support for discrete manufacturing system simulation. Computers in
Industry, 56 :371–383, 2000.
R.P. Darken, T. Allard, et L.B Achille. Spatial orientation and wayfinding in large-scale
virtual spaces : Guest editors’ introduction. Presence : Teleoperators and Virtual Envi-
ronments, 8(6) :3–6, 1999.
Jean Denègre et François Salgé. Les systèmes d’information géographique. Number 2-13-
053923-8 in Que sais-je ? 2004.
R. Devilliers, A. Stein, Y. Bédart, N. Chrisman, P. Fisher, et W. Shi. 30 years of research
on spatial data quality - achievements, failures and opportunities. Transaction in GIS,
(557), 2010.
Jean-Yves Didier. Contribution à la dextérité d’un système de réalité augmentée mobile
appliqué à la maintenance industrielle. PhD thesis, Université d’Evry, Décembre 2005.
Direct Line. [Link]
Marcus A. Doel et David B. Clarke. Virtual worlds. simulation, suppletion seduction and
simulacra. Virtual Geographies. Bodies, Spaces and Relations, pages 261–283, 1999.
Paul Dourish. Where the Action is : The Foundations of Embodied Interaction. MIT Press,
Décembre 2001.
R. M. Downs et D. Stea. Maps in Minds : Reflections on Cognitive Mapping. Harper and
Row, 1977.
Emmanuel Dubois. Chirurgie Augmentée, un Cas de Réalité Augmentée ; Conception et
Réalisation Centrées sur l’Utilisateur. PhD thesis, Université Joseph Fourier, Grenoble,
juillet 2001.
Emmanuel Dubois, Laurence Nigay, Jocelyne Troccaz, Olivier Chavanon, et Lionel Carrat.
Classification space for augmented surgery, an augmented reality case study. In A. Sasse
and C. Johnson (eds.), Proceedings of Interact’99, IOS Press. Edinburgh (UK), pages
353–359, 1999.
Emmanuel Dubois, Laurence Nigay, et Jocelyne Troccaz. Combinons le monde virtuel et
le monde réel : Classification et principe de conception. Actes des Rencontres Jeunes
Chercheurs en Interaction Homme-Machine, pages 31–34, Mai 2000.
Emmanuel Dubois, Philip Gray, et Laurence Nigay. ASUR++ : supporting the design of
mobile mixed systems. Interacting with Computer, pages 497–520, 2003.
E
ENSAM - On-Situ. Dispositif de réalité augmentée pour l’abbaye de cluny : Ray-on. http:
//[Link]/, 2010.
ESTIA. Ecole Supérieure des Technologies Industrielles Avancées, 2010. URL http://
[Link].
164
BIBLIOGRAPHIE BIBLIOGRAPHIE
F
Steven Feiner, Blair Macintyre, et Dorée Seligmann. Knowledge-based augmented rea-
lity. Commun. ACM, 36(7) :53–62, 1993. ISSN 0001-0782. doi : [Link]
[Link]/10.1145/159544.159587. URL [Link]
159587&type=pdf&coll=GUIDE&dl=GUIDE&CFID=104985037&CFTOKEN=42929083.
Steven Feiner, Blair MacIntyre, Tobias Höllerer, et Anthony Webster. A touring machine :
Prototyping 3d mobile augmented reality sytems for exploring the urban environment.
In Proc ISWC’97 (Int. Symp. on Wearable Comuting), pages 74–81, October 1997.
K. Frod. Mandatory ECDIS-IMO takes first steps. Primar Stavanger Newsletter, 2, 2006.
Philippe Fuchs, Olivier Hugues, et Olivier Nannipieri. Proposition d’une taxonomie fonc-
tionnelle des environnements de réalité augmentée. AFRV09, 9-11 Décembre 2010.
Phillipe Fuchs, Guillaume Moreau, et J.P. Papin. Le Traité de la Réalité Virtuelle. Presse
de l’Ecole des Mines de Paris. Première Edition, Mars 2001.
G
Erich Gamma, Richard Helm, Ralph Johnson, et John Vlissides. Design Patterns, Elements
of Reusable Object-Oriented Sofware. 1994.
Payam Ghadirian et Ian D. Bishop. Composition of augmented reality and GIS to visua-
lize environmental changes. In Joint AURISA and Institution of Surveyors Conference
Ghadirian et Bishop (2008), pages 226 – 232. doi : DOI:10.1016/[Link].2008.
03.004. URL [Link]
2/13f35a888265113ef106c371da17324b.
165
BIBLIOGRAPHIE BIBLIOGRAPHIE
Payam Ghadirian et Ian D. Bishop. Integration of augmented reality and gis : A new
approach to realistic landscape visualisation. Landscape and Urban Planning, 86(3-
4) :226 – 232, March 2008. ISSN 0169-2046. doi : DOI:10.1016/[Link].2008.
03.004. URL [Link]
2/13f35a888265113ef106c371da17324b.
J.J. Gibson. The senses considered as perceptual systems. Houghton Mifflin, Boston, 1966.
Simon Gibson, Alan Chalmers, Gilles Simon, Javier-Flavio Vigueras Gomez, Marie-Odile
Berger, Didier Stricker, et Wolfram Kresse. Photorealistic Augmented Reality. In Second
IEEE and ACM International Symposium on Mixed and Augmented Reality - ISMAR’03,
page 3 p, Tokyo, Japon, 10 2003. IEEE, ACM, none. URL [Link]
inria-00099825/en/. Colloque sur invitation. internationale.
Ronan Golhen. Un modèle orienté objet pour les systèmes d’informations géographiques.
PhD thesis, Université de Clermont-Ferrand 2, 1996.
J-C Gonzato, T. Arcila, et B. Crespin. Virtual objects on real oceans. GRAPHICON’2008,
Russie, Moscou, December 2008.
Google Android. http ://[Link]/, 2010. URL [Link]
Scrum User Group. Scrum user group. SUG [Link], Juin 2009.
Yan Guo, Qingyun, Yi Luo, Weiwei Zhang, et Lu Xu. Application of augmented reality
GIS in architecture. The International Archives of Photogrammetry, Remote Sensing and
Spatial Information Sciences, XXXVII(Part B5) :331–336, 2008.
H
Nicholas Hedley, Mark Billinghurst, Lori Postner, Richard May, et Hirokazu Kato. Explo-
rations in the use of augmented reality for geographic visualization. Presence : Teleoper.
Virtual Environ., 11(2) :119–133, 2002. ISSN 1054-7460. doi : [Link]
1054746021470577.
Steve Henderson et Steve Feiner. Augmented reality for maintenance and repair (armar).
Technical Report AFRL-RH-WP-TR-2007-0112, United States Air Force Research Lab,
Jul 2007.
Steven J. Henderson et Steven Feiner. Evaluating the benefits of augmented reality for task
localization in maintenance of an armored personnel carrier turret. Mixed and Augmented
Reality, IEEE / ACM International Symposium on, pages 135–144, 2009. doi : http:
//[Link]/10.1109/ISMAR.2009.5336486.
J. Herling et W Broll. Advanced self-contained object removal for realizing real-time dimini-
shed reality in unconstrained environments. Proceedings of the International Symposium
on Mixed and Augmented Reality 2010 (ISMAR’ 2010), pages 207–212, October 2010.
Tobias Höllerer, Steven Feiner, Tachio Terauchi, et Gus Rashid. Exploring mars : developing
indoor and outdoor user interfaces to a mobile augmented reality system. Computer and
Graphics, 23 :779–785, 1999.
Olivier Hugues, Jean-Marc Cieutat, et Pascal Guitton. Plateforme Expérimentale de Réa-
lité Augmentée Pour l’Aide à la Navigation Maritime. AFRV09, pages 111–115, 9-11
Décembre 2009.
166
BIBLIOGRAPHIE BIBLIOGRAPHIE
I
Technology Systems Inc. Augmented reality for marine navigation. Technical report, Look-
Sea, 2001. URL [Link]
Institut Geographique National. Cartographie : Volume 1 : Sémiologie graphique et
conception cartographique. Technical report, Ecole Nationale des sciences géographiques
(ENSG), Mars 1999.
J
Robert J.K. Jacob, Audrey Girouard, Leanne M. Hirshfield, et Michael S. Horn. Reality-
Based Interaction : A Framework for Post-WIMP Interfaces. pages 201–210. ACM Press,
Florence, Italy, April 5-10 2008.
William James. Pragmatism : A new name for some old ways of thinking. New York :
Longman Green and Co, 1907.
Wang Jie et Hu Xian-Zhong. The error chain in using electronic chart display and informa-
tion systems. In Systems, Man and Cybernetics, 2008. SMC 2008. IEEE International
Conference on, pages 1895 –1899, oct. 2008. doi : 10.1109/ICSMC.2008.4811566.
167
BIBLIOGRAPHIE BIBLIOGRAPHIE
K
Emmanuel Kant. Kritik der reinen vernunft, J.F Hartknoch. Critique de la raison pure. éd.
Riga (trad. fr. Delamarre, A. et Marty F.). Gallimard, Paris, 1980, 1787.
Kurtis Keller et D’nardo Colucci. Perception in hmds : what is it in head-mounted displays
(hmds) that really make them all so terrible ? 3362(1) :46–53, 1998. ISSN 0277786X.
doi : DOI:10.1117/12.317454. URL [Link]
Haedong Kim, Byungtae Jang, Juwan Kim, Jungsik Kima, et Donghyun Kimb. An outdoor
augmented reality system for understanding remote geographical information. Interna-
tional Conference on Artificial Reality Telexistence, 7th :154–158, 1997.
Gary King, Wayne Piekarski, et Bruce. Thomas. Arvino — outdoor augmented reality
visualisation of viticulture gis data. In ISMAR ’05 : Proceedings of the 4th IEEE/ACM
International Symposium on Mixed and Augmented Reality, pages 52–55, Washington,
DC, USA, 2005. IEEE Computer Society. ISBN 0-7695-2459-1. doi : [Link]
10.1109/ISMAR.2005.14.
Georg Klein. Visual Tracking for Augmented Reality. PhD thesis, University of Cambridge,
2006.
Georg Klein et David Murray. Parallel tracking and mapping for small AR workspaces. In
Proc. Sixth IEEE and ACM International Symposium on Mixed and Augmented Reality
(ISMAR’07), Nara, Japan, November 2007.
Wolfgang Köhler. Gestalt Psychology, (trad. fr. La psychologie de la forme). Gallimard,
Paris, 1964, 1929.
Saul Aaron Kripke. A completeness theorem in modal logic. The Journal of Symbolic Logic,
24(1) :1–14, 1959.
L
Layar. http ://[Link]/, 2010. URL [Link]
Jean-Louis Le Moigne. L’Intelligence de la Complexité. Edition l’Harmattan, 2001.
Gérard Lebrun. Réel-Virtuel : la confusion du sens, volume 214, 23-41. Futuribles, No-
vembre 1996.
Vincent Lepetit, Luca Vacchetti, Daniel Thalmann, et Pascal Fua. Fully automated
and stable registration for augmented reality applications. In ISMAR ’03 : Procee-
dings of the 2nd IEEE/ACM International Symposium on Mixed and Augmented Rea-
lity, page 93, Washington, DC, USA, 2003. IEEE Computer Society. ISBN 0-7695-
2006-5. URL [Link]
GUIDE&dl=GUIDE&CFID=79611283&CFTOKEN=94894239.
Fotis Liarokapis, Ian Greatbatch, David Mountain, Anil Gunesh, Vesna Brujic-okretic, et
Jonathan Raper. Mobile augmented reality techniques for geovisualisation. In Proc. of
the 9th International Conference on Information Visualisation, IEEE Computer Society,
pages 745–751. IEEE Computer Society, 6-8 July 2005.
168
BIBLIOGRAPHIE BIBLIOGRAPHIE
M
Blair Macintyre, Marco Lohse, Jay David Bolter, et Emmanuel Moreno. Ghosts in the
machine : Integrating 2d video actors into a 3d ar system. In In Proc. International
Symposium on Mixed Reality, 2001.
Wendy E. Mackay. Augmenting reality : A new paradigm for interacting with computers.
World Proceedings of ECSCW’93, the European Conference on Computer Supported Co-
operative Work, 7, 1993. doi : [Link].6506.
Wendy E. Mackay. Augmented reality : Linking real and virtual worlds a new paradigm
for interacting with computers. In proceedings of AVI’98. ACM Conference on Advanced
Visual Interfaces, New York : ACM Press, 1998.
Paul Milgram. A taxonomy of (real and virtual world) display and control interactions.
In Proceedings of the 16th ACM Symposium on Virtual Reality Software and Techno-
logy, VRST ’09, pages 10–10, New York, NY, USA, 2009. ACM. ISBN 978-1-60558-869-
8. doi : [Link] URL [Link]
1145/1643928.1643932.
Paul Milgram et Fumio Kishino. A taxonomy of mixed reality visual displays. IEICE
Transactions on Informations Systems, E77-D(12) :1–15, December 1994.
Paul Milgram, Haruo Takemura, Akira Utsumi, et Fumio Kishino. Augmented reality : A
class of displays on the reality-virtuality continuum. Telemanipulator and Telepresence
Technologie, 2351 :282–292, 1994.
Alain Milon. La Réalité Virtuelle Avec ou Sans le Corps ? Number 2746706520. Le corps
plus que jamais, 2005.
169
BIBLIOGRAPHIE BIBLIOGRAPHIE
N
Olivier Nannipieri et Philippe Fuchs. Pour en finir avec la réalité : une approche "socio-
constructivisme" de la réalité virtuelle. Revue des Interactions Humaines Médiatisées,
10(1), 2009.
Ulric Neisser. Cognition and Reality : Principles and Implications of Cognitive Psychology.
W. H. Freeman & Co (Sd), 1976. ISBN 0716704773. URL [Link]
exec/obidos/redirect?tag=citeulike07-20&path=ASIN/0716704773.
Ulrich Neumann et Suya You. Natural feature tracking for extendible robust augmented
realities. In IEE Transaction on Multimedia, volume 1, pages 53–64, March 1999.
Donald A. Norman. Cognitive engineering. Book chapter of User Centered System Design,
New Perspectives on Human-Computer Interaction, pages 31–61, 1986.
O
Ordnance Survey. OS MasterMap, 2010. URL [Link]
oswebsite/products/osmastermap/.
P
Volker Paelke et Monika Sester. Augmented paper maps : Exploring the design space of
a mixed reality system. ISPRS Journal of Photogrammetry and Remote Sensing, In
Press, Corrected Proof :–, 2009. ISSN 0924-2716. doi : DOI:10.1016/[Link].2009.
05.006. URL [Link]
2/aadb8e0693c40349b25eda110d62c957.
J.K. Paik, Y.C. Park, et S.W. Park. An edge detection approach to digital image sta-
bilization based on tri-state adaptive linear neurons. IEEE Transactions on Consumer
Electronics, 37(3) :521–530, August 1991.
Avi Parush et Dafna Berman. Navigation and orientation in 3d user interfaces : the impact
of navigation aids and landmarks. International Journal of Human-Computer Studies,
61(3) :375 – 395, 2004. ISSN 1071-5819. doi : DOI:10.1016/[Link].2003.12.018. URL
[Link]
R Passini. Wayfinding in architecture. New York : Van Nostrand Reinhold Press, 1992.
170
BIBLIOGRAPHIE BIBLIOGRAPHIE
R.C.P. Paul. Robot manipulators : Mathematics programming and control. MIT Press,
Cambridge, 1981.
Mathieu Petit, Cyril Ray, et Christophe Claramunt. A user context approach for adaptive
and distributed GIS. Proceedings of the 10th International Conference on Geographic In-
formation Science :AGILE’07, Lecture Notes in Geoinformation and Cartography, pages
121–133, May 2007.
Wayne Piekarski, Ben Avery, Bruce H. Thomas, et Pierre Malbezin. Hybrid indoor
and outdoor tracking for mobile 3d mixed reality. In ISMAR ’03 : Proceedings
of the 2nd IEEE/ACM International Symposium on Mixed and Augmented Reality,
page 266, Washington, DC, USA, 2003. IEEE Computer Society. ISBN 0-7695-
2006-5. URL [Link]
GUIDE&dl=GUIDE&CFID=78345517&CFTOKEN=27697444.
Juri Platonov, Hauke Heibel, Peter Meier, et Bert Grollmann. A mobile markerless ar
system for maintenance and repair. In ISMAR ’06 : Proceedings of the 5th IEEE and ACM
International Symposium on Mixed and Augmented Reality, pages 105–108, Washington,
DC, USA, 2006. IEEE Computer Society. ISBN 1-4244-0650-1. doi : [Link]
org/10.1109/ISMAR.2006.297800. URL [Link]
1514222&type=pdf&coll=GUIDE&dl=GUIDE&CFID=77831885&CFTOKEN=43093623.
171
BIBLIOGRAPHIE BIBLIOGRAPHIE
Q
Qualcom. http ://[Link]/, 2010. URL [Link]
R
Andrew Radburn. A mobile augmented reality demonstrator. Ordonance Survey, 2006.
Gerhard Reitmayr et Dieter Schmalstieg. Location based applications for mobile augmented
reality. ACM International Conference Proceeding Series ; Vol. 36, 2003a. ISSN 1445-
1336. URL [Link]
Gerhard Reitmayr et Dieter Schmalstieg. Data management strategies for mobile aug-
mented reality. In Proceedings of International Workshop on Software Technology for
Augmented Reality Systems, pages 47–52. IEEE Computer Society, 2003b.
Gerhard Reitmayr, Ethan Eade, et Tom Drummond. Localisation and Interaction for
Augmented Maps. Symposium on Mixed and Augmented Reality, 2005. URL http:
//[Link]/[Link]?id=1105191.
Miguel Ribo, Peter Lang, Harald Ganster, Markus Brandner, Christoph Stock, et Axel
Pinz. Hybrid tracking for outdoor augmented reality applications. IEEE Com-
put. Graph. Appl., 22(6) :54–63, 2002. ISSN 0272-1716. doi : [Link]
org/10.1109/MCG.2002.1046629. URL [Link]
618943&type=external&coll=GUIDE&dl=GUIDE&CFID=76592487&CFTOKEN=86060046.
Teresa Romao, Nuno Correia, Eduardo Dias, Adelaide Trabuco, Carlos Santos, Rossana
Santos, Edmundo Nobre, António Câmara, José Danado, et Luís Romero. Augmenting
reality with geo-referencend information for environmental management. In Proc GIS’02,
Virginia, USA, pages 175–180, 2002.
S
A. Samama. Innovative video analytics for maritime surveillance. In Waterside Security
Conference (WSS), 2010 International, pages 1 –8, nov. 2010. doi : 10.1109/WSSC.2010.
5730280.
Gerhard Schall, Erick Mendez, Ernst Kruijff, Eduardo Veas, Sebastian Junghanns, Bern-
hard Reitinger, et Dieter Schmalstieg. Handheld augmented reality for underground in-
frastructure visualization. Personal and Ubiquitous Computing, Special Issue on Mobile
Spatial Interaction, 13(4) :281–291, Mai 2008.
172
BIBLIOGRAPHIE BIBLIOGRAPHIE
Holger Schnädelbach, Boriana Koleva, Martin Flintham, Mike Fraser, Shahram Izadi, Paul
Chandler, Malcolm Foster, Steve Benford, Chris Greenhalgh, et Tom Rodden. The au-
gurscope : A mixed reality interface for outdoors. CHI Minneapolis, Minnesota, USA,
April 20-25 2002.
Suzanne Sebillotte. Décrire des tâches selon les objectifs des opréateurs. de l’inverview à la
formalisation. Rapport technique, Institut National de Recherche en Informatique et en
Automatique (INRIA), Janvier 1991.
Roger. Shepard et J. Metzler. Mental rotation of three dimensional objects. Science, 171
(972) :701–703, 1971.
Ben Shneiderman et Catherine Plaisant. Designing the User Interface : Strategies for Effec-
tive Human-Computer Interaction (4th Edition). Pearson Addison Wesley, 2004. ISBN
0321197860.
Julier Simon, Baillot Yohan, Lanzagorta Marco, Brown Denis, et Rosenblum Lawrence.
Bars : Battlefield augmented reality system. in Nato Symposium on Information Proces-
sing Techniques for Military Systems, pages 9–11, 2000. doi : [Link].5064.
Ivan E. Sutherland. The Ultimate Display. In IFIP Congress, pages 506–508, 1965.
T
Yasuhiko Takaya, Hiroko Mugibayashi, Mika Satomi, Takahiro Kobayashi, et Atsuhito Se-
kiguchi. Geo-Media : The interactive augmented-reality system for outdoor use with
VRS-RTK-GPS. In Proceedings of the Tenth International Conference on Virtual Sys-
tems and Multimedia, pages 1262–1271, 2004.
173
BIBLIOGRAPHIE BIBLIOGRAPHIE
Hirotaka Takeuchi et Ikujiro Nonaka. The new new product development game. Har-
vard Business Review, 1986. URL [Link]
20Prod%20Devel%[Link].
U
UnLogo. http ://[Link]/, 2010.
W
Wenbi Wang. Human Navigation Performance Using 6 DOF Dynamic Viewpoint Tethering
in Virtual Environments. PhD thesis, University of Toronto, Toronto, Canada, 2004.
Roy Want, Andy Hopper, Veronica Falc ao, et Jonathan Gibbons. The active badge location
system. ACM Trans. Inf. Syst., 10(1) :91–102, 1992. ISSN 1046-8188. doi : [Link]
[Link]/10.1145/128756.128759. URL [Link]
128759&type=pdf&coll=GUIDE&dl=GUIDE&CFID=106919428&CFTOKEN=39693190.
Pierre Wellner. The digitaldesk calculator : Tactile manipulation on a desk top display. In
proceedings of ACM Symposium on User Interface Software and Technology (UIST’91),
pages 27–33, November 11-13 1991.
174
BIBLIOGRAPHIE BIBLIOGRAPHIE
H. Wuest, F. Vial, et D. Stricker. Adaptive Line Tracking with Multiple Hypotheses for
Augmented Reality. In ISMAR’05 : Proceedings of the Fourth IEEE and ACM Interna-
tional Symposium on Mixed and Augmented Reality, pages 62–69, Washington, DC, USA,
IEEE Computer Society. 2005.
Y
Suya You, Ulrich Neumann, et Ronald Azuma. Hybrid inertial and vision tracking for
augmented reality registration. In VR ’99 : Proceedings of the IEEE Virtual Reality,
page 260, Washington, DC, USA, 1999. IEEE Computer Society. ISBN 0-7695-0093-5.
Z
Fransisco A. Zabala. Hough transform implementation in roll stability control of uavs. E-
Book, [Link] 2006.
Gangqiang Zhao, Ling Chen, Jie Song, et Gencai Chen. Large head movement tracking
using sift-based registration. ACM Multimedia MM’07, September 23-28 2007.
Siavash Zokai, Julien Esteve, Yakup Genc, et Nassir Navab. Multiview parapers-
pective projection model for diminished reality. In ISMAR ’03 : Proceedings of
the 2nd IEEE/ACM International Symposium on Mixed and Augmented Reality,
page 217, Washington, DC, USA, 2003. IEEE Computer Society. ISBN 0-7695-
2006-5. URL [Link]
Portal&dl=GUIDE&CFID=105979476&CFTOKEN=53600694.
175
Annexes
1 Tests Unitaires
Dans le domaine du génie logiciel, la finalité des tests unitaires est de s’assurer du fonc-
tionnement correct d’une fonctionnalité. On développe un test pour réduire voire éliminer
l’écart entre la réalisation et la spécification d’une fonctionnalité. Dans notre cas, la création
des tests unitaires passe par la construction des données d’entrée du système à tester (confi-
guration des capteurs, données dynamiques, un point du navire). Le résultat en sortie du
système est ainsi comparé (avec une tolérance) au résultat attendu. Le test permet de vali-
der la relation d’entrée / sortie du système. Nous avons construit les premiers tests unitaires
en utilisant le code déjà présent pour déterminer la sortie souhaitée du système afin que
la nouvelle fonctionnalité n’entraîne pas de régression. Pour ce faire, nous avons considéré
que les données dynamiques de l’attitude du navire étaient nulles. Ensuite, pour valider la
bonne prise en compte de l’attitude du navire, nous avons réalisé des tests avec des attitudes
particulières. Lorsque tous les tests sont validés, le système est considéré comme respectant
les spécifications et peut ainsi être utilisé. Pour information, notre système nécessite vingt-
quatre variables pour la construction d’un test unitaire complet. La majorité des données
d’entrée sont des réels ce qui implique une infinité de tests possible. La construction d’une
suite de tests exhaustifs est donc impossible. L’efficacité de cette méthode est dépendante
de la qualité et de la diversité des tests créés. De plus, il est conseillé que la création des
tests ne soit pas réalisée par la même personne qui va implémenter la fonctionnalité en
question.
La centrale inertielle que nous avons utilisée est une centrale spécifique pour le domaine
maritime. Elle dispose de deux récepteurs GPS, d’un accéléromètre trois axes et d’un gy-
romètre trois axes. Elle permet de connaître le cap du navire par un calcul de différence
de phase entre les deux signaux reçus par les récepteurs GPS. Les deux autres angles
de rotation sont déduits par les deux autres capteurs dont les signaux sont filtrés. Nous
avons été obligés de rendre notre système d’information géographique compatible avec ce
matériel. Comme de nombreux dispositifs maritimes, cette centrale utilise le protocole de
communication NMEA (National Marine Electronics Association). Ce protocole est basé
sur un échange de phrases (transmises ici par un port série) contenant une identification
ainsi que les données. Pour le cas de cette centrale, il s’agit de phrases propriétaires créées
par l’entreprise Furuno (2009) et déclarées officiellement auprès de l’Organisation Maritime
Internationnale (OMI). Le format de ces phrases est présenté dans la Figure 6.1.
Annexes
Figure 6.1: Format d’une phrase NMEA délivrée par la centrale inertielle.
<<abstract>>
Sentences
+ CheckSum : Checksum ?
+ Device : Device ?
- ComputeWarningFlag(ModeIndicator) : Warning
FecAtt
+ Heading : Heading
+ Pitch : Angle
+ Roll : Angle
Les données sont reçues sur le port spécifié et sont analysées par le composant “IO”. Un
analyseur permet ensuite d’informer les objets métiers par évènements que des données sont
disponibles.
3 Format d’enregistrement
Dans l’objectif de montrer la nécessité de réaliser des optimisations lors de l’enregistrement
des données, nous présentons dans le Tableau 6.1a toutes les informations qu’il est nécessaire
de prendre en compte pour quelques données très courrantes.
178
Annexes
Façade
<<interface>> <<interface>>
IRecorderPlayerView IRecorderPlayerScript
RecorderPlayerView
RecorderPlayerScript
+ PlayerState
+ RecorderState
+ LastData : List<RecorderPlayerData>
+ Settings : RecorderPlayerSettings
+ GetData : List<RecorderPlayerData>
+ GetImage : IImages
+ PushImage : void
+ GetSpeed : int
+ PushData : void
+ Pause : void
+ Play : void
+ Stop : void
- Initialise : void
<<enum>> <<enum>> - Filtering : void
RecorderState PlayerState - Serialize : void
Recorder
Player
+ State : ControlState
+ BinaryWriter : BinariWriter + State : ControlState
+ ImageIndex : int + Container
+ Settings
+ ReadingSpeed
+ ChangeState : void
+ Pause(void) : void
+ PushImage(IImage) : void + ChangeState : void
+ PushData(DataContainer) : void + Pause(void) : void
+ Play(void) : void
+ Stop(void) : void
+ SetSpeed(i : int) : void
VideoWriter
VideoReader
+ AviManager : AviManager
+ FileName : string
+ AviManager : AviManager
+ VideoStream : stream
+ VideoStream : Stream
+ AddFrame(bitmap) : void
+ Close(void) : void
+ Close(void) : void
+ CreateAviManager(void) : void
+ GetVideoFileIndex(string fileName) : string
+ GetBitmap(index : int) : Bitmap
- GetCompressionOption(void)
+ VideoReader(fileName : string) : void
RecorderPlayerMetaData RecorderPlayerData
179
Annexes
ARModule
RAModuleLayer
+ ConfigurationPolicy
+ Name
+ RootWorkItem
+ VideoCameraView : IVideoCameraView
+ SettingManager
+ Dispose(void) : void
+ AddServices(void) : void
+ Feed(List<Entyity3D>) : void
+ Initialize(ServiceDependency) : void
+ GetE3DProvider(void) : List<E3DProvider>
+ Load(void) : void
GeoVideoCameraSensor
+ AttitudeVideoCameraInWorld
+ AugmentedRealitySettings
RAE3DProvider + Ccrp
+ CorrectionParameter
+ IdleService
+ Settings : ARSettings
+ IOwnShipView
+ IVideoCameraScript
+ Dispose(void) : void + IVideoCameraView
+ Feed(List<Entity3D>) : void + VideoCameraPosition3DInWorld
+ ARE3DProvider : E3DProvider
+ GetImage(IVideoCamera) : bitmap
+ OnIdle(object sender, EventArgs e) : void
+ Initialize(ServiceDependency) : void
- GetFloat(Distance) : float
E3DImageVideo
OwnShipMobile
+ BottomOpacity : float
+ Position : Position
+ TopOpacity : float
+ Ccrp : Ccrp
+ Heading : Heading
+ Heading : Heading <<Sealed>>
+ Heaving : Distance Transformer
+ Pitch : Angle
+ Position : Position
+ Roll : Angle
+ Pitch : Angle
+ Heaving + CompensedAttitude : Attitude
+ Roll : Angle
+ CurrentSpeed + CameraInWorld : Attitude
+ FovHorizontal : float
+ ... - CameraAttitude : Attitude
- Ccrp : Ccrp
+ Dispose(void) : void - GPSPosition : Position
- CorrectionAttitude : Attitude
- InertialAttitude : Attitude
- C TW : GenMatrix
+ CcrpToWorld(CcrpPosition) : Position3D
+ SettAttitude(Angle, Heading, Attitude,...) : void
+ Compensate(bool) : void
- ComputeAngleFromMatrix(GenMatrix) : Angle
- ComputeDynamicMatrix() : void
- ComputeStaticMatrix() : void
- CcrpToLocalWorld(CcrpPosition) : LocalPosition
- GetCameraAttitude(VideoCamera) : Attitude
- GetCameraOperator(VideoCamera) : GenMatrix
180
Annexes
Façade
<<interface>> <<interface>>
IVideoCameraView IVideoCameraScript
VideoCameraScript
VideoCameraView
+ FakeControlable : IControlable
+ AxisNetwork + FakeImage : IImage
+ FlirNetwork
+ List<IImages> + Initialise : void
+ List<IControlables> + Lock : void
+ Move : void
+ DeletVideoCameras : void + ScanFlirNetwork : void
+ GetControlables : IControlable + SetColor : void
+ GetImages : IImages + Stop : void
+ Initialize : void + ZoomIn : void
+ ZoomOut : void
<<interface>>
ICameraNetwork
FlirNetwork AxisNetwork
FlirUpdater AxisUpdater
VideoCameraSettings
+ List<AxisDescriptions> : AxisDescription
+ List<FlirDescription> : FlirDescription
+ GetAxisDescription(ICamera) : AxisDescription
+ GetFlirDescription(ICamera) : FlirDescription
181
Annexes
ASV API
AsvAsv
<<list>> <<list>>
AsvWebApi
AsvIRCameras AsvCapture
<<list>> <<list>>
AsvIRCamera AsvError
AsvSensor AsvCamera
<<list>>
AsvIRCameraState AsvErrorDescription
AsvTarget
Root API
asvASV_Capture asvASV_CAPTUREASV_SENSORS
AsvCameraReason
asvASV_CAPTURECAMERA_IMAGE
AsvIRCameraStatus
asvASV_CAPTURECAMERA_IMAGEDETECTION
asv
asvErrorDescription asvIrcamerasIrReason
182
Annexes
183
Figure 6.7: Interface graphique permettant d’accéder aux fonctionnalités du composant
“RecorderPlayer ”.
Résumé
Réalité augmentée pour l’Aide à la Navigation. Le cas particulier de la naviga-
tion maritime.
Ces travaux de thèse se situent au croisement de plusieurs domaines que sont la Réalité
Augmentée, la Réalité Virtuelle, les systèmes d’information géographique, le génie logiciel,
le traitement d’image et les sciences humaines et sociales. Le premier axe de ce mémoire
concerne les apports relatifs à l’amélioration des connaissances du domaine de la réalité
augmentée par une approche centrée utilisateur. Nous proposons, basés sur nos définitions
et sur les travaux en réalité virtuelle, notre modèle d’interaction et d’immersion en réalité
augmentée nommé 3i2RA. L’axe suivant permet de préciser la problématique liée à l’uti-
lisation d’un système d’aide à la navigation par un état de l’art spécifique aux systèmes
d’information géographique. Nous présentons dans ce chapitre les systèmes d’information
géographique particulièrement destinés à l’aide à la navigation. Le troisième axe présente
nos apports méthodologiques concernant la conception d’un outil d’aide à la navigation.
L’objectif est de proposer une démarche permettant d’interfacer la modélisation des activi-
tés des navigateurs et une méthode agile de développement d’un logiciel. Enfin, le dernier
axe présente nos apports technologiques mis en œuvre afin de réaliser les fonctionnalités
demandées.
Mots clés :
réalité augmentée, environnement mixte, système d’information géographique, ECDIS, ana-
lyse d’image, réalité virtuelle, méthode agile, fusion de données.
Abstract
Augmented Reality for Navigation Assistance. The special case of shipping.
This thesis was therefore situated at the crossroads of several fields such as Augmented
Reality, Virtual Reality, geographic information systems, software engineering, image pro-
cessing and human and social sciences. The first section of this thesis concerns contributions
relating to improving knowledge in the field of augmented reality based on a user centred
approach. We then propose, based on our definitions and work on virtual reality, our model
of interaction and immersion in augmented reality known as 3i2RA. In the following section
we describe the issue linked to using a computer assisted navigation system with a state
of the art specific to geographical information systems. In this chapter we present geogra-
phical information systems and more particularly those aimed at sailing. The third section
presents our methodological contributions regarding the design of a computer assisted na-
vigation tool. The aim is to provide a method enabling the modelling of sailors’ activities
to be interfaced with an agile software development method. The final section presents the
technological contributions we implemented so as to create the requested functionalities.
Key words :
Augmented reality, mixed environment, geographic information system, ECDIS, image pro-
cessing, virtual reality, agile software development, data fusion.