0% ont trouvé ce document utile (0 vote)
435 vues471 pages

Agents intelligents sur Internet : enjeux économiques

Transféré par

Abakar Abdoulaye
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
435 vues471 pages

Agents intelligents sur Internet : enjeux économiques

Transféré par

Abakar Abdoulaye
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Agents intelligents de l’internet: enjeux économiques et

sociétaux
John Wisdom

To cite this version:


John Wisdom. Agents intelligents de l’internet: enjeux économiques et sociétaux. domain_other.
Télécom ParisTech, 2005. English. �NNT : �. �pastel-00001548�

HAL Id: pastel-00001548


[Link]
Submitted on 26 Jan 2006

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
Thèse

présentée pour obtenir le grade de docteur


de l’École Nationale Supérieure des Télécommunications

Spécialité : Économie des systèmes d’information

John Richard WISDOM

Les agents intelligents sur Internet : enjeux économiques et sociétaux

Soutenue le 9 décembre 2005 devant le jury composé de

Mme Danielle BAHU-LEYSER, Professeur en Sciences de l’Information et de la


Communication à l’Université Nancy-2 : Directeur

M. Francis BALLE, Professeur en Sciences Politiques à l’Université de Paris II

Panthéon-Assas : Rapporteur

M. Jean-Marc LABAT, Professeur en Informatique à l’Université de Paris VI Pierre et Marie


Curie : Directeur

M Ludovic LEBART, Directeur de recherche au CNRS (ENST Paris) : Président

M. Jacques PERRIAULT, Professeur en Sciences de l’Information et de la Communication à


l’Université de Paris X Nanterre: Rapporteur

1
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Avertissement

L’École Nationale Supérieure des Télécommunications de Paris n’entend donner ni


approbation, ni improbation aux opinions émises dans cette thèse. Ces opinions doivent
être considérées comme propres à leur auteur.

2
DÉDICACE

A Lindley

A Gizella
A Myriam, Lesley, Didier, Eva, Cédric
A John et Frances
A Alexandre

3
Les agents intelligents sur Internet : enjeux économiques et sociétaux

REMERCIEMENTS

Je tiens à remercier tout d’abord Mme le Professeur Danielle BAHU-LEYSER et Monsieur


le Professeur Jean-Marc LABAT d’avoir bien voulu diriger cette thèse et de m’avoir donné
de précieux conseils qui m’ont permis de recadrer ma recherche.

Je tiens également à remercier les membres du Jury :

M. Francis BALLE, Professeur en Sciences Politiques à l’Université de Paris II Panthéon-


Assas, M Ludovic LEBART, Directeur de recherche au CNRS (ENST Paris), M. Jacques
PERRIAULT, Professeur en Sciences de l’Information et de la Communication à
l’Université de Paris X Nanterre.

Je remercie également Mmes Geneviève LE BLANC, responsable de la documentation des


archives du SAG, Kathryn ENGLISH, maître de Conférences à l’Université de Paris II,
MM Francis BALLE ; professeur à l’Université de Paris II, Pierre BOUSQUET, analyste à
ZS Associates Guillaume de la ROCHEFOUCAULD, spécialiste en veille et sécurité
informatique, Alain GRUMBACH, professeur à l’ENST et Serge PROULX, professeur à
l’Université du Québec à Montréal pour leur participation à nos entretiens.

Tous mes remerciements vont à Monsieur Laurent GILLE, directeur du département


EGSH, et à tous les membres, qui m’ont accueilli, notamment Guy GAMOT, maître de
Conférences en Sciences Économiques, Michel GENSOLLEN, chercheur associé à l’ENST
pour leurs conseils et encouragements. Enfin, je remercie M Hugues GERHARTS qui a
relu et corrigé ce manuscrit.

4
RÉSUMÉ
Le terme agent intelligent désigne dans l’usage spécialisé de la veille un outil de
recherche. Il correspond à un logiciel de type métamoteur comportant de multiples
fonctionnalités de recherche et de traitement de l’information. Or, depuis quelques années,
les moteurs de recherche ont intégré la technologie agent pour devenir de véritables
systèmes multi-agents et ont conquis le marché de la recherche informationnelle. Ces
derniers permettent de réduire l’entropie du Web et ils commencent à apporter des solutions
au problème de la surcharge d’informations sur le disque dur de l’utilisateur. En effet, de
nouveaux systèmes capables d’indexer le Net et le disque de l’internaute sont disponibles.
Ainsi devraient émerger des outils complets d’indexation et de traitement de l’information.
Si cette technologie comporte bien des avantages pour l’utilisateur, elle pose des problèmes
de confidentialité et présente des dangers de faire naître une société sous constante
surveillance. Malgré ces risques de dérapage, la technologie agent devrait mettre à la portée
de tous les hommes et femmes l’énorme documentation de l’humanité, à la fois littéraire et
scientifique, sous forme de bibliothèque universelle. Par ailleurs, la convergence des
moteurs de recherche et de la téléphonie mobile devrait donner un pouvoir accru aux
consommateurs.

Nous avons posé comme hypothèse directrice que les moteurs de recherche ont
incorporé les fonctionnalités autrefois associées aux logiciels agents. Ils étendent leurs
technologies sur le PC de l’usager. Ainsi les agents intégrés dans les moteurs ou portails
contribuent à gérer les évolutions économiques et sociétales d’Internet.

Notre hypothèse a été validée à partir de l’observation des usages et des utilisateurs et de
l’analyse des documents scientifiques du domaine. Nous avons proposé un modèle à la fois
explicatif du succès du moteur de recherche Google et prédictif des évolutions possibles.

Il nous reste à suivre les développements des interfaces spécialisées et des problèmes
relatifs à la présence des moteurs sur le disque de l’usager.

5
Les agents intelligents sur Internet : enjeux économiques et sociétaux

The term intelligent agent signifies in the specialized terminology of Internet monitoring
a search tool. It corresponds to software of the meta-search engine type comprising of many
search and information processing functions. However, for a few years, the search engines
have integrated agent technology to become true multi-agent systems and conquered the
information search market. The latter make it possible to reduce the entropy on the Web,
and they are beginning to manage the problem of data overload on the end-user’s hard disk.
Indeed, new systems able to indexer both the Net and the PC hard disk are being tested.
Thus complete all-round search tools for data-processing should emerge. If this technology
comprises many advantages for users, it poses problems of confidentiality and presents
dangers to give birth to a global society under constant monitoring. In spite of these risks,
agent technology should put at everyone’s disposal the whole of mankind’s literary and
scientific works in the form of a universal library. Moreover, the coming together of search
engine technology and mobile telephony should enhance the negotiating power of the
consumer.

Our hypothesis stated that search engines had incorporated the functions associated with
intelligent agents previously. They are extending their presence onto the user’s hard disc.
Thus, the agents contribute to the management of the Internet as it develops economically
and socially.

Our hypothesis was validated after observing the usage and the users and after analysing
scientific documents in the field of study. We have endeavoured to propose a model
explaining the success of Google, and predicting possible developments.

We still must follow how specialized interfaces will emerge and the problems relating to
the presence of search engine technology on the user’s hard disc.

6
SOMMAIRE

DÉDICACE............................................................................................................. 3

REMERCIEMENTS................................................................................................ 4

RÉSUMÉ ................................................................................................................ 5

SOMMAIRE............................................................................................................ 7

INTRODUCTION GÉNÉRALE ............................................................................. 11

PREMIERE PARTIE ............................................................................................ 45

1. DE NOUVELLES MACHINES À COMMUNIQUER ................................... 45

1.1. Introduction...................................................................................................................................... 45

1.2. Histoire d’un projet utopique : l’intelligence artificielle (IA) ...................................................... 47


Recherche en intelligence humaine ............................................................................................................ 47
Histoire de l’intelligence artificielle ........................................................................................................... 50
Définition de l’intelligence artificielle........................................................................................................ 61
Domaines de l’intelligence artificielle. ....................................................................................................... 65
Application pratique de l’intelligence artificielle ....................................................................................... 67

1.3. Agents intelligents sur Internet....................................................................................................... 68


Comment définir un agent intelligent ? ...................................................................................................... 68
Applications des agents intelligents au profiling ........................................................................................ 78
Les agents sont-ils indispensables ?............................................................................................................ 82

1.4. Agent logiciel ou moteur de recherche ? ........................................................................................ 85


Critères de comparaison des outils de recherche ........................................................................................ 86
Copernic : agent métamoteur...................................................................................................................... 90
Google est-il devenu un superagent intelligent ? ...................................................................................... 100

1.5. Barres d’outils ................................................................................................................................ 118


Problèmes d’organisation et d’ergonomie ................................................................................................ 121

7
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Solutions apportées par les barres d’outils................................................................................................ 121

1.6. Conclusion ...................................................................................................................................... 134

DEUXIEME PARTIE .......................................................................................... 135

2. DE L’OBSERVATION DES USAGES A CELLE DES USAGERS .......... 135

2.1. Introduction.................................................................................................................................... 135

2.2. Panorama des usages des outils de recherche informationnelle................................................. 136


Entretiens.................................................................................................................................................. 136
Présentation des enquêtes ......................................................................................................................... 137
Enquête : outils de recherche en milieu universitaire ............................................................................... 141
Enquête : usages des outils de recherche en milieu professionnel............................................................ 153
Interprétation des résultats........................................................................................................................ 173

2.3. Enquête sur la représentation de l’intelligence artificielle ......................................................... 175

2.4. Comment les éditeurs de logiciel se représentent les agents intelligents ................................... 189

2.5. Conclusion ...................................................................................................................................... 194

TROISIEME PARTIE ......................................................................................... 195

3. ÉCONOMIE DES AGENTS ET ENJEUX POUR LES USAGERS........... 195

3.1. Introduction.................................................................................................................................... 195

3.2. Echange bi-directionnel de l’information .................................................................................... 198


Enjeux économiques : le marché des moteurs et du commerce en-ligne.................................................. 199
Modèles économiques .............................................................................................................................. 205
Protection des droits de l’usager............................................................................................................... 211
Labellisation ............................................................................................................................................. 213
Limites de la liberté sur Internet : censure et surveillance........................................................................ 225

3.3. Innovation et transformation ........................................................................................................ 231


Agents et recherche d’informations sur les produits et les prix ................................................................ 231
Moteurs et téléphonie mobile ................................................................................................................... 236

3.4. Bibliothèque virtuelle de la connaissance humaine..................................................................... 239

8
Bibliothèque d’Alexandrie ou Tour de Babel........................................................................................... 239
Myriades de traces pour les archéologues futurs ...................................................................................... 243

3.5. Conclusion ...................................................................................................................................... 245

CONCLUSION GÉNÉRALE .............................................................................. 247

BIBLIOGRAPHIE DES OUVRAGES ET ARTICLES CONSULTÉS.................. 257


Ouvrages et thèses .................................................................................................................................... 257
Articles ..................................................................................................................................................... 269
Webographie............................................................................................................................................. 274

ANNEXES .......................................................................................................... 293

LISTE DES DOCUMENTS ANNEXES .............................................................. 463

TABLE DES MATIÈRES ................................................................................... 467

9
Les agents intelligents sur Internet : enjeux économiques et sociétaux

10
INTRODUCTION GÉNÉRALE

En inventant l’expression « intelligence artificielle » en 1956, lors d’une Conférence


pluridisciplinaire au Collège de Dartmouth aux Etats-Unis, quelques chercheurs américains,
John McCARTHY, Martin MINSKY, Nathaniel ROCHESTER et Claude Shannon ont
inauguré une ère nouvelle associant étroitement la pensée humaine et l’outil informatique.
Pour beaucoup, cependant, l’intelligence ne peut être que l’apanage de l’humain. En effet,
il est fréquent d’employer l’adjectif « intelligent » pour qualifier les capacités cognitives.
Le dictionnaire Le Petit Robert1 propose d’ailleurs les définitions suivantes : « qui a la
faculté de connaître et de comprendre » ou « qui est, à un degré variable, doué
d’intelligence ». Les exemples cités par cet ouvrage s’appliquent aussi bien aux êtres
humains qu’aux animaux. Richement connotée et valorisée, l’intelligence serait donc
exclusivement de l’ordre du vivant. On ne saurait, par conséquent, l’employer pour
désigner un programme informatique.

Curieusement, dans sa dernière version, Le Petit Robert a ajouté une définition propre à
l’intelligence informatique libellée de la manière suivante : « qui possède des moyens
propres de traitement et une certaine autonomie de fonctionnement par rapport au système
informatique auquel il est connecté ». Pourtant, l’idée même d’une machine indépendante
capable de traiter des informations et d’agir sans intervention humaine n’est pas anodine
sur le plan éthique, économique et social. La littérature et le cinéma ont d’ailleurs exploité
ce thème qu’ils ont progressivement introduit dans la conscience collective.

Dans la pratique, sont apparus dans les années 1990, des programmes informatiques
présentant ces caractéristiques. L’essor d’Internet à partir de 1995 a, en effet, favorisé la
création de programmes capables de récupérer et de filtrer des documents disponibles sur le
réseau des réseaux. On leur a donné, à tort ou à raison, le nom d’« agent intelligent ». Mais
de même que l’intelligence se rapporte généralement à l’humain, de même le terme agent,
selon Le Petit Robert, s’applique à une « personne chargée des affaires et des intérêts d’un
individu, d’un groupe ou d’un pays pour le compte desquels elle agit » ou « jouant le rôle
d’intermédiaire dans les opérations commerciales, industrielles et financières ». En

1
Édition 2000.

11
Les agents intelligents sur Internet : enjeux économiques et sociétaux

d’autres termes, les « agents intelligents2 » résultent de la conjonction de deux attributs


humains : agir et penser.

Bien que la recherche sur les agents informatiques au sens le plus large remonte aux
années soixante-dix, ce terme a été utilisé pour la première fois en 1997 pour décrire les
agents programmes et les agents d’interface intelligente conçus pour Internet. En
particulier, l’article de Gilles DERUDET3, intitulé « La révolution des agents intelligents »
dresse un panorama de cette technologie émergente. Quelques ouvrages4 paraissent à la
même époque sur ce sujet.

Concrètement, cette notion recoupe de multiples applications : les métamoteurs de


recherche en-ligne et les logiciels du même type, les aspirateurs de sites Web, les
comparateurs de prix, les outils de filtrage, les interfaces intelligentes et les programmes de
profilage des internautes et de leurs usages. Nous verrons ultérieurement que cette
définition devrait s’appliquer également aux moteurs de recherche à bien des égards.

Quoi qu’il en soit, les agents intelligents proposés au public sur Internet sous forme de
logiciels n’ont pas connu le succès escompté. Les usagers leur ont préféré les moteurs de
recherche jugés plus simples d’utilisation, plus rapides et plus efficaces. Quelles sont donc
les causes de l’engouement généré par ces derniers au détriment des premiers ? Quelles
sont les conséquences de ce choix sur le développement de la société de l’information ?
Que sont devenus, dans ces circonstances, les agents intelligents ? Autant d’interrogations
auxquelles nous tenterons d’apporter des éléments de réponse.

Ainsi, nous avons choisi d’étudier les enjeux économiques et sociétaux des agents
intelligents d’Internet en observant les usages des outils de recherche. Notre intérêt pour
cette technologie est né des enseignements suivis en 1997 à l’Université de Paris II, et à
celle de Paris VII dans le cadre d’un Diplôme d’Etudes Approfondies en nouvelles

2
La neuvième édition du Dictionnaire de l’Académie Française ne fait aucune mention du terme. Elle ne donne
que les définitions du mot « agent » appliqué aux humains. Sur le site ATILF
[Link] , consulté le 5 juillet 2004.
3
Gilles DERUDET, « La révolution des agents intelligents », Internet Professionnel, N° 9, mai, 1997, pp. 74-79.
4
A. CAGLAYAN, ET C. HARRISON, Agent Sourcebook, A Complete Guide to Desktop, Internet, and Intranet
agents, Wiley Computer Publishing, New York, 1997.
J.M. BRADSHAW, Software Agents, AAAI Press/ The MIT Press, Boston, 1997.
MÜLLER, Jörg P., The Design of Intelligent Agents, A Layered Approach, Springer, Berlin, 1996.

12
Introduction Générale

technologies de l’information et de la communication. A cette époque, la presse spécialisée


vantait les mérites de ces programmes censés révolutionner la recherche documentaire sur
Internet. Or, en 2004, il n’est plus question d’agents intelligents dans la presse informatique
(le terme est remplacé par celui d’agent logiciel ou de programme agent) et l’intérêt des
médias de masse s’est déplacé vers la concurrence entre les moteurs de recherche et les
portails.

En 1998, nous avons proposé à nos étudiants de l’École Polytechnique un module


d’enseignement (en langue anglaise) intitulé « L’homme et la machine ». A cette occasion,
une attention toute particulière a été portée sur les représentations induites par cette relation
complexe. Les étudiants ont manifesté leur vif intérêt pour la question et ont pris position
pour ou contre la possibilité de construire une machine intelligente.

Le cinéma et la littérature nous apportaient de nombreuses illustrations où apparaissaient


clairement les craintes mais aussi la dimension utopique liée à cette problématique. A
l’évidence, l’imaginaire entre dans la relation entre l’humain et la technique. Et malgré le
rationalisme de nos étudiants, la part de rêve et de symbolisme reste présente, s’agissant
d’une technologie ou d’une innovation qualifiée d’intelligente. Pour cette raison, nous
avons décidé d’analyser les enjeux d’une technologie qui ne laisse personne indifférent tant
les implications sur le plan économique et sociétal sont importantes.

L’originalité du sujet réside dans le fait que cette technologie récente est encore mal
connue. En effet, Internet tous publics ne date que de 1995. Son essor a été rendu possible
par l’invention du World Wide Web et par la création du navigateur Netscape. Dès lors, le
Web marchand a pu voir le jour. Bien que la notion d’agent en informatique ait d’ores et
déjà fait l’objet de nombreuses parutions avant 1995, peu de publications abordaient la
question des usages et des attitudes des usagers face aux logiciels dédiés à Internet.

Néanmoins, nous attirons l’attention sur le fait que les pratiques des usagers évoluent
rapidement et sont susceptibles de modifier le paysage multimédia. Ainsi, un logiciel aussi
populaire soit-il peut être amené à disparaître du jour au lendemain. Le sort de Netscape en
est une illustration puisqu’il a été remplacé par Internet Explorer, intégré dans le progiciel
Windows de Microsoft. En d’autres termes, une killer application, selon l’expression
consacrée par les Américains (à savoir une innovation révolutionnaire et rapidement
appropriée par les usagers) peut à tout moment bouleverser le marché et rendre obsolète
13
Les agents intelligents sur Internet : enjeux économiques et sociétaux

une technologie largement diffusée. En définitive, le rythme des innovations rend


l’interprétation des interactions entre le social et la technique d’autant plus délicate que
nous ne disposons que de très peu de recul.

Quoi qu’il en soit, il est possible de tracer les grandes lignes des évolutions
technologiques en la matière sur la période des quinze dernières années. Aux débuts
d’Internet en France, au milieu des années 90, la performance des moteurs de recherche
restait très médiocre. Tous les espoirs se portaient alors sur les prouesses escomptées des
agents intelligents. Pourtant, avec l’arrivée de Google, à partir de 1998, les moteurs se sont
imposés grâce à l’amélioration de leur base d’indexation et de leurs algorithmes de tri et de
classement. L’analyse des usages, à ce jour, montre très clairement que les moteurs
constituent un enjeu économique majeur.

En l’occurrence, la gratuité des services de recherche documentaire permet aux


internautes d’accéder à toutes les sources d’information. Pour ce faire, ils empruntent
généralement un moteur de recherche5. En contrepartie, celui-ci leur transmet des annonces
publicitaires sous la forme de liens personnalisés correspondant aux centres d’intérêt des
usagers. Ainsi, ces [Link] génèrent un chiffre d’affaires grâce à la publicité et à la vente
des licences de leur technologie.

A titre indicatif, en 2003, une partie importante des flux d’informations transite par les
moteurs de recherche qui centralisent6 les stocks de données sur Internet et les rendent
accessibles. On estime qu’en 2003 le chiffre d’affaires publicitaire7 engendré par les
moteurs était de 3 milliards de dollars avec un taux de croissance annuelle de l’ordre de
35%.

5
Environ 10% du temps selon une étude de première position XITI (entre janvier et décembre 2001), publiée par
[Link], « les parts de marché des moteurs de recherche », (sans date), article consulté le 2 juillet 2004,
[Link] Cependant, en novembre 2004, 39% du trafic provient des
moteurs de recherche, Mediametrie-eStat ,Communiqué de Presse du 19/11/2004, « Origine du trafic », page
consultée le 7 janvier 2005. Cf. annexe 15, [Link]
6
En index et en mémoire-cache.
7
Lev GROSSMAN, « Search and Destroy », Time, 2 février 2004, p. 36.

14
Introduction Générale

Cela étant, il subsiste un intérêt pour les logiciels agents spécialisés dans la recherche
informationnelle sur Internet. Ces programmes sont développés par de petites sociétés
financées par le capital risque et utilisés par des professionnels de la veille. A titre indicatif,
les cadres commerciaux, documentalistes ou veilleurs professionnels travaillant pour le
compte d’autres sociétés constituent cette catégorie.

Cependant, aucun agent logiciel n’a, à ce jour, produit un impact significatif sur la
demande. Malgré cela, les professionnels suivent attentivement l’évolution de cette
technologie tout en se servant essentiellement des moteurs et des annuaires. En d’autres
termes, l’utilisation des logiciels spécialisés dans la veille sur Internet reste pour l’instant
expérimentale.

Parallèlement, une forte concentration économique du secteur des moteurs de recherche


a pu être observée, faisant suite à l’effondrement du marché des [Link]. A titre d’exemple,
la firme Yahoo a racheté, en 2002, la société Inktomi8, puis Overture9, qui avait elle-même
absorbé auparavant les moteurs Fast10 et AltaVista11. Ces opérations financières lui ont
permis de se passer des services de Google et de concurrencer ce dernier. En 2004, seuls
trois grands dispositifs équipés de moteurs de recherche, à savoir Google, Yahoo et MSN
de Microsoft subsistent. Les autres moteurs et portails représentent une faible part de
marché12.

8
Société spécialisée dans la technologie de recherche. Achetée le 23 décembre 2002 pour 235 millions de
dollars. Tom KRAZIT, « Yahoo buys search firm Inkromi for $235m”, IDG News service, Computerworld, le
23 12 2002, [Link] consulté le 31 mai 2005.
9
Acheté le 15 juillet 2003, pour 1,6 milliard de dollars. Source : Stéphanie OLSEN, Margaret KANE, « Yahoo
to buy Overture for $1.63 billion », [Link], le 14 7 2003, [Link]
consulté le 31 mai 2005.
10
Acheté le 23 avril 2003 pour 70 millions de dollars, le moteur grand public de la firme Fast est alltheweb.
Source : Margaret Kane, « Overture to buy search services », [Link], le 25 février 2003,
[Link] consulté le 31 mai 2005.
11
Acheté le 19 février 2003 pour 140 millions de dollars. Source : Margaret Kane, « Overture to buy search
services », [Link], le 25 février 2003 consulté le 31 mai 2005.
12
Selon Panorama Médiamétrie-eStat d’octobre 2004, Google représente 73% du trafic, Yahoo 8%, Wanadoo et
Voila 6%, et MSN 5%. Altavista ne représente qu’1% en France. Notons que les deux fournisseurs d’accès
cités sont utilisés également pour faire des requêtes.
[Link] consulté le 28 novembre 2004.

15
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Pour toutes ces raisons, la presse et la télévision se focalisent sur la concurrence entre les
trois portails les plus fréquemment utilisés par les internautes. Ainsi, l’introduction en
bourse de Google a été largement médiatisée, tout comme le conflit entre cette firme
californienne et Microsoft pour dominer le marché.

Cela étant, une technologie reste virtuelle tant qu’elle n’est pas diffusée et appropriée par
des utilisateurs. Si nous nous sommes au préalable attaché à la mise en place de la
technologie agent par le truchement des moteurs de recherche, notre seconde démarche
concerne l’internaute.

Pour comprendre les raisons de l’adoption des moteurs par la majorité des internautes au
détriment des logiciels du type métamoteur, nous avons choisi d’observer deux groupes
d’usagers : les étudiants et les universitaires d’une part, et les professionnels de la veille
d’autre part.

Le premier groupe est constitué par les étudiants, les enseignants, les chercheurs, et les
documentalistes de plusieurs établissements d’enseignement supérieur et de recherche à
Paris et en région parisienne13. Nous justifions ce choix de la manière suivante. Nous avons
accès à une population composée d’universitaires et d’étudiants qui peuvent se connecter
facilement à Internet et qui s’en servent quotidiennement. Ils l’utilisent soit comme
messagerie, soit comme moyen de recherche documentaire ou informationnelle. Il nous est
possible de suivre l’évolution de leurs usages dans le temps.

D’ailleurs, l’échantillon observé est constitué par des premiers groupes à adopter l’usage
d’Internet en France, à la fois pour ses loisirs et ses études, car des salles informatiques ont
été mises à leur disposition dès 1995. L’observation de ce milieu nous semblait d’autant
plus réalisable que nous avons, par nos activités d’enseignant, accès à trois grands campus
dispensant des enseignements fort diversifiés. Par conséquent, il ne nous a pas été difficile
de distribuer nos questionnaires.

Cependant, nous avons intégré dans notre corpus d’usagers un groupe de contrôle plus
particulièrement concerné par l’évolution des agents intelligents de type logiciel. Nous
avons pensé que ce groupe nous fournirait des renseignements pertinents sur ces logiciels

13
Il s’agit de l’Université de Paris II, de l’ENST et de l’École Polytechnique.

16
Introduction Générale

qui n’ont pas pénétré le marché grand public. D’ailleurs, il est possible que certains
produits puissent avoir un impact sur la demande des entreprises.

Toutefois la participation de ce second groupe a posé quelques difficultés. Certains


professionnels de la veille économique et stratégique ont, en effet, refusé de répondre à
notre enquête pour des raisons de confidentialité. Cependant, une trentaine de
questionnaires dûment complétés ont pu être récoltés grâce à deux forums sur Internet :
ADBS14 et veille-concurrence15.

C’est pourquoi nous avons distribué deux questionnaires, le premier sur support papier
auprès des étudiants et des universitaires afin de connaître leurs usages en matière de
recherche d’information sur Internet. Quant au second, il a été proposé aux professionnels
par le biais du courrier électronique. Dans cette perspective, nous avons posté un message
sur l’un ou l’autre des deux forums. Les personnes intéressées nous ont alors adressé une
demande de questionnaire qu’ils nous ont ensuite retourné par attachement de courrier
électronique.

Pour préparer les enquêtes, nous avons procédé à des entretiens semi-directifs. Nous
avons interrogé certains spécialistes en économie et en sciences de l’information, et
quelques usagers engagés dans la veille économique. Afin d’approfondir notre
problématique, nous avons entrepris quelques interviews auprès d’experts après avoir
analysé les réponses des questionnaires.

L’analyse des contributions des forums spécialisés nous a également permis de connaître
les préoccupations des professionnels à l’égard de la technologie agent. Notre première
démarche consistait à faire un état des lieux d’une technologie qui avait fait l’objet, au
moins en apparence, d’un rejet des usagers et nous avons voulu en connaître la raison.

Notre troisième démarche consistait à examiner l’offre technique et le discours des


éditeurs de logiciels afin de connaître le type de représentations qu’ils cherchaient à
véhiculer pour promouvoir leurs produits (logiciels) ou leurs services. Nous nous sommes

14
L’Association des professionnels de l’information et de la documentation, créée en 1963. Elle compte plus de
5600 membres. Site : [Link] consulté le 28 11 2004.
15
Veille-concurrence est un forum géré par MEDIAVEILLE ([Link] et
[Link] destiné aux professionnels de la veille et de l’intelligence économique, site :
[Link] consulté le 28 11 2004.
17
Les agents intelligents sur Internet : enjeux économiques et sociétaux

penché plus particulièrement sur les pages Web des éditeurs de logiciels et des sites Web
des journaux spécialisés dans l’économie d’Internet. Une partie de notre corpus
documentaire est constituée d’articles scientifiques sur le sujet d’agents intelligents,
essentiellement en langue anglaise. Nous nous attendions à un décalage important entre le
discours techniciste et la réception des usagers. Pour analyser nos résultats, nous avons
utilisé le logiciel Sphinx. Il s’agit d’une application de création d’enquêtes et d’analyse de
données, développée par la société le sphinx, installée à Annecy et à Grenoble16.

Afin d’intégrer notre recherche dans un contexte plus large, nous avons commencé par
poser le problème suivant: en quoi la technologie agent influe-t-elle sur le développement
de la société de l’information ? Cette expression est attribuée à Jacques Delors17, président
de la Commission Européenne en 1992. Selon M. Delors, la société de l'information ne
serait pas née avec Internet. Elle ne correspond pas uniquement à une simple transformation
technique car « le changement à l’œuvre dans la fusion de l’informatique et de
l’audiovisuel comme dans l’avènement des communications numériques implique bien
davantage qu’une révolution technologique supplémentaire18. » Il s'agit plutôt d'un
phénomène dynamique global, à la fois technologique, économique et sociétal.
L’expression décrit un modèle de société dans laquelle l'information s'échange de manière
planétaire et instantanée, sous une forme multimedia unique caractérisée par la
numérisation de toutes les formes de communication. « L’économie se dématérialise, des
activités productives s’externalisent, les services dominent, la détention comme la
circulation de l’information deviennent décisives19. » Les industries de la communication
comprenant l’informatique, l’audiovisuel, les télécommunications et le multimédia
contribuent ensemble à faire émerger ce secteur dynamique de l’économie. « L’ouverture
du monde multimédia (son-texte-image) constitue une mutation comparable à la première
révolution industrielle20. » C’est sur ce secteur que l'ensemble du processus d'innovation, de
production et d'échange s'appuie et se développe :

16
[Link]
17
Jacques DELORS, Pour entrer dans le XXIe siècle : emploi, croissance, compétitivité : le livre blanc de la
Commission des Communautés européennes, M. Lafon, Paris, 1994.
18
Idem, p. IV.
19
Ibid, p. 13.
20
Ibid, p. 22.

18
Introduction Générale

« Il ne s’agit pas d’imposer d’en haut un schéma d’autant plus abstrait qu’on ne sait pas si notre
intuition d’un bouleversement de notre vie quotidienne sera vérifiée. L’enjeu est bien plutôt
d’animer la rencontre des opérateurs de réseaux, des promoteurs des services électroniques et des
concepteurs d’applications, afin que les priorités des uns devenant des hypothèses solides de travail
pour les autres, le projet prenne corps. 21»

Il ne s’agit pas, pour nous, de réduire cette question à un quelconque déterminisme


technique, mais de chercher à comprendre la complexité d’interactions économiques et
sociales mises en œuvre en mettant l’accent sur les usages prévus par les concepteurs et
réellement observés chez les utilisateurs. Après avoir analysé les résultats de nos enquêtes
et de nos entretiens, nous nous sommes rendu compte de l’échec des logiciels agents auprès
du public, et de l’appropriation massive des moteurs de recherche. Nous avons pensé que la
technologie agent existait toujours et qu’elle était devenue transparente. Comment une
technologie devenue invisible aux yeux des usagers peut-elle transformer le développement
d’une société qui se construit autour des transferts et de la mise en réseau des informations,
des connaissances et des savoirs ?

Notre corpus se limite aux outils de recherche d’information, que ce soit des agents
logiciels ou les moteurs ou métamoteurs. De même que nous n’examinons que les produits
destinés au grand public ou aux professionnels appartenant à de petites structures. Nous n’y
incluons pas les systèmes de gestion des connaissances, par exemple. En effet, les grands
groupes ne font que commencer d’investir dans cette technologie. En plus, il est trop tôt
pour connaître la manière dont celle-ci s’est implantée dans les milieux professionnels ou si
le KM connaîtra les succès escomptés.

Il est également difficile de comprendre toutes les implications de la technologie agent


sur toute la société d’information. Il nous a fallu porter notre attention uniquement sur
certains aspects. L’un des problèmes majeurs de cette société émergente est celui de la
surcharge d’informations générée par la croissance exponentielle d’Internet, surcharge qui
entraîne stress et fatigue22. Nous avons constaté que l’internaute est confronté à une quantité

21
Ibid, p. IV.
22
Le terme « information fatigue syndrome » a été créé par le psychologue David Lewis en 1996 et défini
comme la fatigue et le stress résultant d’une quantité excessive d’informations, « the weariness and stress that
result from having to deal with excessive amounts of information. », source :
[Link] consulté le 12 avril 2004.
19
Les agents intelligents sur Internet : enjeux économiques et sociétaux

excessive d’informations disponibles sur Internet. Le nombre de pages consultables


augmente tous les jours en même temps que les moteurs de recherche indexent et stockent
sur leurs bases de données de plus en plus de documents. Le problème qui se pose à la
société de l’information n’est plus celui du manque d’information mais celui de sa
surabondance. Viennent ensuite la fiabilité de l’information et l’intégrité de ses sources.
L’ensemble stocké constitue une sorte de mémoire collective, ce qui implique des
problèmes sérieux d’accès, de validité et de protection. C’est aux moteurs de recherche et
aux annuaires qu’il incombe de veiller à cette tâche.

L’internaute doit gérer un cycle complexe d’opérations qui consistent à rechercher


l’information, à la stocker, à la récupérer lorsqu’il en éprouve le besoin. Si Internet
représente pour lui un environnement surchargé d’information, le disque dur de son
ordinateur devient également très vite saturé de documents récupérés sur le Web ou de
signets à organiser. En d’autres termes, l’entropie ou incertitude de trouver ce qu’il cherche
se situe à la fois localement et sur le réseau des réseaux. L’objectif de tout outil de
recherche consiste à réduire l’incertitude chez l’usager à l’égard de la quantité gigantesque
de pages proposées par les moteurs ou autres supports documentaires. Si ces derniers
fonctionnent relativement bien, la gestion interne du disque dur de l’usager reste à
améliorer. C’est un des défis que les moteurs cherchent à relever.

Trouver l’information dont on a besoin sur un moteur de recherche, cela pose également
d’autres problèmes. L’expérience et l’expertise de l’usager entrent en ligne de compte
malgré l’amélioration algorithmique des outils de recherche. Une requête réussie est
souvent l’affaire d’un choix judicieux de termes et parfois de découvertes inattendues.
Lorsque l’usager récupère un document, il n’a jamais la certitude que le site soit
authentique, qu’il ne s’agisse pas d’un canular ou d’une désinformation. La labellisation
des ressources sur Internet reste très insuffisante. Or ce facteur peut déterminer en partie la
confiance que l’usager a en un site Web, surtout commerçant. Les agents à l’avenir
devraient apporter des solutions à ce problème. Par ailleurs, le langage xML23 devrait
améliorer la lecture sémantique et par conséquent l’indexation des documents.

23
Une description complète d’xML (extensible markup language) : [Link] consulté le
30 11 2004.

20
Introduction Générale

Notre question de départ nous amène à nous demander comment les usagers se servent
des outils de recherche pour acquérir des documents sur Internet et quels sont les aspects
positifs et négatifs de ce processus sur le plan sociétal et économique. Comment expliquer
l’adoption des moteurs de recherche plutôt que les logiciels agents ? L’analyse de l’offre
technologique et des usages confirmés d’outils de recherche permet-elle de nous éclairer
sur les rapports entre la technique, le social et l’économique ? Nous chercherons à apporter
quelques réponses à cette question.

Nous proposons, comme hypothèse directrice, que les moteurs de recherche ont
incorporé les fonctionnalités autrefois associées aux logiciels agents. Ils étendent leurs
technologies sur le PC de l’usager. Ainsi les agents intégrés dans les moteurs ou portails
contribuent à gérer les évolutions économiques et sociétales d’Internet.

Cette hypothèse se compose de trois sous-hypothèses :

Les moteurs de recherche ont incorporé les fonctionnalités autrefois associées aux
logiciels agents. [1]

Il nous faut d’abord expliquer comment la technologie agent s’intègre dans les moteurs
et portails. Cette intégration constitue l’un des facteurs qui expliquerait leur appropriation
par le plus grand nombre d’usagers. La présence de l’IA, peut-être dérangeante, reste
invisible. Il nous semble vraisemblable que cette intégration technologique fait partie du
processus de concentration caractéristique du marché des logiciels d’une part, et du
processus de globalisation.

Néanmoins, les moteurs de recherche ne suffisent pas à réduire la surcharge


d’informations subie par l’usager. Un modèle semble émerger, associant moteurs de
recherche en-ligne et logiciels agents intégrés dans le système d’exploitation de l’usager.
Les moteurs, portails et éditeurs de systèmes d’exploitation entrent en concurrence pour
faire adopter leur dispositif de moteur de recherche interne. L’objectif est d’interconnecter
en permanence le moteur (ou portail) et l’ordinateur de l’usager. L’enjeu est de taille
puisqu’une partie considérable des flux d’informations vers les sites marchands transitent

21
Les agents intelligents sur Internet : enjeux économiques et sociétaux

par les moteurs de recherche24. Ce processus qui consiste à faire adopter un programme sur
le PC de l’usager permettra de fidéliser ce dernier. Nous examinerons les conséquences de
cette stratégie. Nous expliquerons comment les barres d’outils, parmi d’autres dispositifs,
peuvent apporter des solutions au problème de surinformation et quelles sont leurs
véritables fonctions. Cette affirmation constitue la seconde partie de l’hypothèse directrice :

Les moteurs de recherche étendent leurs technologies sur le PC de l’usager. [2]

Les agents informatiques sont indispensables au développement de l’internet marchand,


notamment les moteurs de recherche qui jouent un rôle pivot entre les usagers et les sites
commerciaux. Cependant, il existe un certain nombre de problèmes liés à la validité de
l’information et à l’intégrité des sites. Les moteurs de recherche peuvent apporter une
solution à ce type de problème. Ils peuvent également jouer un rôle central dans le
développement de la convergence des médias : Internet et téléphonie mobile.

Ainsi les agents intégrés dans les moteurs ou portails contribuent à gérer les évolutions
économiques et sociétales d’Internet. [3]

La gratuité des services de recherche informationnels implique un échange


d’informations entre l’usager et le moteur ou portail. Cet échange comporte des avantages
(économiques) pour le développement du commerce en-ligne, fournit une source de
revenus aux intermédiaires (les moteurs de recherche) et favorise l’innovation technique.
Cependant, il comporte également des risques (sociétaux) en ce qui concerne la
confidentialité et la protection de la vie privée. Les usagers ne sont peut-être pas conscients
de cet échange bien que celui-ci comporte un certain nombre d’inconvénients. Quels
dangers les programmes informatiques représentent-ils pour l’usager ? Quelles solutions
peut-on envisager pour protéger ce dernier contre les abus de la surveillance informatique ?
Nous examinerons les technologies mises en œuvre afin de profiler les demandeurs
d’informations à des fins publicitaires et marketing.

Quel rôle l’imaginaire joue-t-il dans la diffusion d’une innovation ? Si le terme « agent
intelligent » est très riche en connotations et charges symboliques, le terme « moteur de

24
On peut mesurer ce trafic, non pas en temps passé sur un site, mais en nombre de requêtes par jour. Google,
par exemple, est réputé recevoir 200 millions de requêtes par jour. Source :
[Link] consulté le 10 09 2004.

22
Introduction Générale

recherche » resterait peut-être plus neutre, et n’entraînerait pas de réaction de la part de


l’utilisateur. L’usager se méfie, à notre avis, des systèmes que les concepteurs affublent de
l’adjectif « intelligent ». Certains documents écrits par les chercheurs en intelligence
artificielle et des articles de la presse constituent une source d’informations à analyser dans
cette perspective, de même que certains propos des usagers interrogés lors de nos enquêtes.
Ainsi, nous examinerons la part du mythe et du symbolique qui entre en ligne de compte
dans la diffusion et l’appropriation d’une nouvelle technologie.

Afin de répondre aux différentes questions de notre recherche, nous avons examiné
plusieurs cadres de référence. Ceux-ci nous ont fourni un ensemble de concepts et de
comptes rendus d’expériences susceptibles d’orienter notre investigation. Notre recherche
s’inscrit tout d’abord dans le cadre des sciences de l’information, plus précisément dans
celui de la sociologie des usages développée en France depuis une quarantaine d’années.
Nous faisons appel également aux théories économiques développées récemment afin
d’expliquer la nouvelle économie d’Internet et les modèles économiques émergents.
Ensuite, nous avons porté notre attention sur la théorisation de l’intelligence artificielle et
des agents intelligents.

Le cadre de référence scientifique s’inscrit dans la recherche en Sciences de


l’Information et de la Communication. En effet, l’étude des usages et de l’appropriation
d’une nouvelle technologie a déjà fait l’objet de recherches approfondies. Dominique
WOLTON25 et Philippe BRETON26 ont étudié les usages d’Internet ou de toute autre
nouvelle technique du point de vue sociologique. Philippe BRETON a mis en évidence
l’utopie27 qui accompagne la mise en place de l’idéologie de communication à partir de
1942.

D’autres auteurs ont proposé une théorisation des usages antérieurs aux débuts d’Internet
en France. A titre d’exemple, Victor SCARDIGLI insiste sur l’importance du contexte
social. Il oppose une vision techno-logique à une vision socio-logique. La première est « la
logique techniciste par rapport à la logique sociale de mise en place de nouvelles

25
Dominique WOLTON, Internet et après, une théorie critique des nouveaux médias, Flammarion, Paris, 1999.
26
Philippe BRETON, Le culte d’Internet, Une menace pour le lien social ?, La Découverte, Paris, 2000.
27
Philippe BRETON, L’utopie de la communication, La Découverte, Paris, 1992.
23
Les agents intelligents sur Internet : enjeux économiques et sociétaux

technologies. »28 Selon ce directeur de recherches au CNRS, les deux logiques


« s’articulent intimement plus souvent qu’elles ne s’opposent.29 » La socio-logique met
l’accent sur l’importance du contexte historique et politique propre à chaque pays et le rôle
des différents acteurs impliqués dans la définition des usages30. Ce sociologue présente
quatre caractéristiques de la techno-logique fondée sur le mythe du Progrès scientifique : un
discours techniciste qui confirme ce mythe comme bienfaisance sociale , « chaque
innovation technique paraît à point nommé pour résoudre les grands défis des sociétés
contemporaines. »31

La technique devient un objet en soi, « un idéal qui assure le bonheur32 » dans tous les
domaines, un outil au service de l’économie et de la société. Il s’agit d’une vision utopique
de la technologie. Les avantages dépassent les nuisances33. La techno-logique peut devenir
une logique d’action ou une stratégie de prise de pouvoir, et cherche à imposer le bon usage
de l’innovation34. Elle définit le mode de diffusion des innovations dans la société
(irradiation ou impact)35.

Anne-Marie LAULAN, quant à elle, étudie les phénomènes de résistance dans le


domaine de la communication. Pour ce professeur, l’une des fondatrices des sciences de
l’information et de la communication (SIC), la résistance des usages dénote « la réaction
multiple, diverse et créatrice et toujours active que les citoyens, les utilisateurs, les publics
apportent aux offres techniques qui leur sont faites. »36 L’usage, selon Anne-Marie
LAULAN, sort du cadre strictement utilitaire pour inclure le contexte qu’elle décrit en
termes d’imaginaire social et de représentations symboliques des utilisateurs. Cet aspect
apporte un appui théorique à notre troisième hypothèse.

28
Victor SCARDIGLI, Le sens de la technique, PUF, 1992 p. 22.
29
Idem, p. 22.
30
Ibid, p. 24.
31
Ibid, p. 23.
32
Ibid, p. 23.
33
Ibid, p. 23.
34
Ibid, p. 24.
35
Ibid, p. 24.
36
Anne-Marie, LAULAN, La résistance aux systèmes d’information, Rez (Actualité des Sciences humaines),
Paris, 1985, p.9.

24
Introduction Générale

« Au niveau de l’imaginaire, les engouements et les peurs se manifestent métaphoriquement, au


travers d’amalgames, d’assimilations, d’affabulations où la dimension technique se trouve
transmutée au plan symbolique. »37

Notre position consistera à vérifier les dimensions sociales, culturelles et symboliques


qui sous-tendent les usages des techniques qui nous intéressent. En effet, chercher des
informations implique le transfert à autrui de sa démarche et de son parcours à travers le
réseau. En d’autres termes, l’observateur est observé. Le sujet devient l’objet d’étude du
système. La quête d’information est aussi productrice de nouvelles données, donc de valeur
économique. La recherche d’informations est un acte social comportant de multiples
conséquences.

Selon Anne-Marie LAULAN, l’état de la société à un moment donné va favoriser ou au


contraire freiner l’usage de telle ou telle technologie. « On ne répétera jamais assez
l’importance du contexte politique, économique, social par rapport aux systèmes
d’information. »38

Le contexte que nous examinons évolue dans un cadre de la mondialisation économique


et financière et de la distribution planétaire d’une grande partie de l’information en temps
réel grâce à Internet. Les applications pressenties par les milieux techniciens sont souvent,
voire presque toujours, adaptées, détournées et parfois même rejetées. Par exemple, les
logiciels, appelés agents par la presse spécialisée et les éditeurs et concepteurs de logiciels,
n’ont pas réussi à pénétrer le marché grand public. Peut-on expliquer cette résistance ?
C’est ce que nous cherchons à faire en analysant les résultats de nos enquêtes.

« La résistance déborde singulièrement le cadre fonctionnel de l’objet technique… les voies de la


résistance prennent leur origine dans les désirs, les conflits, les combats des individus et des
groupes. Nous avons déjà souligné le profond clivage entre la visée techniciste, productiviste et
fonctionnelle des fabricants des appareils et les relations passionnelles et symboliques que les
utilisateurs et les usagers établissent avec ces mêmes outils. Les premiers veulent conquérir, capter,
les seconds rusent, apprivoisent, abandonnent, s’approprient. »39

37
Idem, p. 12.
38
Ibid, p. 147.
39
Ibid, p. 146.
25
Les agents intelligents sur Internet : enjeux économiques et sociétaux

La problématique d’Anne-Marie LAULAN nous paraît extrêmement riche en ce qui


concerne notre propre problématique, notamment lorsque nous portons un regard sur les
stratégies des portails. En effet, les contraintes économiques jouent un rôle important dans
leur développement. C’est par le biais du business model qu’il est possible de les
appréhender.

Comme Anne-Marie LAULAN, Michel de CERTEAU40 développe la notion de ruse et


de détournements des usages. L’usager se sert de tactiques afin de s’approprier les outils de
communication. Michel de CERTEAU présente les statistiques sur la consommation
culturelle comme « le répertoire avec lequel les utilisateurs procèdent à des opérations qui
leur sont propres41. » Il considère que l’usage en tant que consommation « a pour
caractéristiques ses ruses, son effritement au gré des occasions, ses braconnages, sa
clandestinité, son murmure inlassable, en somme une quasi-invisibilité, puisqu’elle ne se
signale guère par des produits propres (où en aurait-elle la place ?) mais par un art
d’utiliser ceux qui lui sont imposés42. » De surcroît, il convient de tenir compte du contexte
d’usage.

Pierre CHAMBAT (1992), quant à lui, met l’accent sur les pratiques de communication
et leurs représentations dans la société. Il insiste sur « les difficultés d’introduire de
nouveaux usages dans la société. » C’est que pour lui l’obstacle essentiel tient à « une série
de confusions, caractéristiques de l’idéologie techniciste : l’assimilation entre innovation
technique et innovation sociale, entre applications et usages, l’identification entre la
communication fonctionnelle, techniquement efficace et la communication sociale,
infiniment complexe. »43 Notre position consistera à chercher à identifier les représentations
que les utilisateurs ont des systèmes intelligents et des moteurs de recherche.

L’ouvrage de Jacques PERRIAULT a constitué notre introduction à l’étude des usages.


C’est pourquoi nous lui consacrons quelques pages. Professeur de sciences de l’information

40
Michel de Certeau, L’invention du quotidien, tome 2, « Arts de faire », Gallimard (Coll. 10-18), 1994, p. 50-
54.
41
Idem, p. 52.
42
Ibid, p. 53.
43
Pierre CHAMBAT, Communication et lien social, Cité des Sciences et de l’industrie, Descartes, Paris, 1992,
p. 11.

26
Introduction Générale

et de la communication de l’Université de Paris X, il étudie les mythes attachés aux


innovations concernant l’information et la communication, en mettant l’accent sur leur
enracinement dans l’histoire et l’imaginaire. En analysant les pratiques liées à la télévision,
Jacques PERRIAULT se donne comme objectif de « ne plus se focaliser sur la pratique
familiale de la télévision, mais de considérer désormais l’ensemble de pratiques de
communication au moyen de divers appareils … de comprendre les usages qui en sont faits
ainsi que leur rôle dans l’économie des relations familiales. »44

Il emprunte à Pierre SCHAEFFER le terme machine à communiquer pour désigner les


appareils de communication, et pose comme hypothèse que les utilisateurs possèdent une
stratégie d’utilisation. Jacques PERRIAULT est conscient qu’il existe « de multiples
pratiques déviantes par rapport au mode d’emploi, qui étaient autre chose que des erreurs
de manipulation. »45.

Il observe que l’utilisation d’un appareil est souvent « impossible à décrire, car il est
complexe et en partie machinal. »46 C’est l’homme qui est au cœur de l’observation, et il
faut selon ce chercheur tenir compte des contextes psychologiques, sociologiques, culturels
et économiques afin de comprendre « comment s’établit et se propage l’usage»47.

Il est également nécessaire d’étudier les usages de façon diachronique, de tenir compte
du substrat de longue durée. Les usages correspondent-ils à un modèle unique de
fonctionnement chez différents usagers ou à une multiplicité d’utilisations ? De « grandes
divergences dans les formes d’usage et de grands regroupements » impliquent qu’il existe
un modèle identique de fonctionnement chez de multiples usagers48.

Il voit dans les usages « un composé complexe d’instrumentalité et de symbolique. Les


deux sont souvent associés, dans des proportions diverses. La relation est dynamique et
s’inscrit dans des durées très variables. Ce sont ici les usagers, les mouvements historiques

44
Jacques PERRIAULT, La logique de l’usage-essai sur les machines à communiquer, Flammarion, Paris, 1989,
p. 12.
45
Idem, p. 13.
46
Ibid, p. 16.
47
Ibid, p. 116.
48
Ibid, p. 203.
27
Les agents intelligents sur Internet : enjeux économiques et sociétaux

dans lesquels ils s’inscrivent qui constituent l’aune de la mesure. »49. Aujourd’hui les
innovations arrivent très rapidement et la durée qui permettrait de prendre du recul se
rétrécit très vite.

L’usage comporte un aspect instrumental et un aspect symbolique, mythique voire


magique ou religieux. Jacques PERRIAULT énumère cinq mythes liés à la machine à
communiquer : le mythe de Prométhée et du progrès ; le projet de corriger les déséquilibres
de la société grâce à la technique ; le mythe de l’ubiquité ; le mythe de l’instantanéité ; le
mythe de l’homme artificiel50. Ces mythes restent d’actualité. L’usager, par exemple, veut
recevoir de l’information en temps réel. Quelques secondes d’attente lui apparaissent très
longues. Avec Internet, les rapports entre l’espace et le temps sont bouleversés51.

Jacques PERRIAULT souligne le rôle symbolique qui sous-tend les usages.

« L’usage n’est que rarement purement instrumental. Il se double souvent d’un rôle symbolique
qu’affecte à l’appareil celui qui s’en sert. Là non plus, on ne constate pas des milliers de rituels
différents, mais une analogie, sinon une identité de comportements chez un grand nombre
d’utilisateurs. »52 Cet aspect soulève la question de méthode d’interprétation. Comment accéder à
la dimension symbolique d’un usage ? »

Il poursuit son analyse en définissant l’usager comme « un agent de contexte » avec ses
propres mythes, règles et ressources, qui ignore les mythes associés à la conception de la
machine53. L’utilisateur se situe au nœud d’interactions complexes reliant son projet, son
désir profond et son modèle d’utilisation. Il existe une « sorte de négociation entre
l’homme, porteur de son projet, et l’appareil, porteur de sa destinée première. »54 De même
qu’il met en exergue une « négociation entre l’usager et la sphère technicienne dont l’enjeu
est la place et le rôle à assigner à la machine. »55 Cette négociation entre l’usager et

49
Ibid, p. 213.
50
Ibid, p. 66-69.
51
Les premières publicités de Wanadoo ou de Bouygues télécom ont d’ailleurs mis en relief cet aspect
d’instantanéité et d’ubiquité des rencontres faites sur Internet.
52
Ibid, p. 200.
53
Ibid, p. 214
54
Ibid, p. 220.
55
Ibid, p. 219.

28
Introduction Générale

l’appareil peut aboutir à la conformité, au détournement de l’usage, au rejet instrumental ou


symbolique56.

La technologie connaît, dans des milieux différents, des utilisations diversifiées puisque
les usages entre l’homme et l’appareil sont négociés et varient en fonction de l’époque et du
lieu. « La relation d’usage s’opère d’ailleurs à des niveaux très différents qui vont de la
microsituation à la période historique. »57. Il est clair pour nous que l’attitude vis-à-vis des
agents intelligents et de l’intelligence artificielle pourra différer d’un pays à un autre.

Jacques PERRIAULT analyse ce qu’il appelle la logique des usages. Il constate que le
comportement des usages est souvent « en décalage par rapport au mode d’emploi d’un
appareil. »58 En d’autres termes, entre les fonctionnalités possibles d’un agent et celles que
l’internaute utilise régulièrement, il peut y avoir un décalage important. Celui-ci apparaît
clairement dans les réponses que nous avons analysées.

Certains facteurs, liés « à la société globale, à son imaginaire, à ses normes»59


déterminent la décision de se servir d’un appareil, ou d’en abandonner l’usage, ou d’en
modifier l’emploi. Jacques PERRIAULT distingue trois états différents de la relation
d’usage. D’abord il fait une distinction entre l’instrument et la fonction pour laquelle il est
employé, l’évolution de cette relation dans le temps, et enfin, la différence entre l’inventeur
et l’usager. Les usagers « dans leur logique propre ne partagent que rarement les
fantasmes de ceux qui leur proposent l’appareil. »60 Il faut différencier entre le langage
publicitaire des sites Web des offreurs, des articles scientifiques des chercheurs et les
réalités d’usage du côté de la demande. Où faut-il situer les membres des communautés qui
se construisent autour d’un logiciel ?

Une double décision chez l’usager est à l’origine de l’usage : acheter et se servir de
l’appareil61. Certains éléments interviennent dans la décision d’achat et le processus

56
Ibid, p. 230.
57
Ibid, p. 213.
58
Ibid, p. 202.
59
Ibid, p. 202.
60
Ibid, p. 202.
61
Ibid, p. 205.
29
Les agents intelligents sur Internet : enjeux économiques et sociétaux

d’emploi : le projet ou anticipation d’usage qui peut se modifier ; l’appareil (instrument) ;


et la fonction assignée. Certains usages n’ont rien à voir avec la fonctionnalité de l’objet
tels ceux qui touchent aux symboles du pouvoir, de la compétence ou de la distinction62.

Jacques PERRIAULT note que la première forme de l’usage est celui conforme au
protocole de l’inventeur63. Ensuite viennent les modifications et altérations :

« Une première altération de l’usage consiste donc à moduler la gamme des capacités de
l’appareil. Une sorte d’équilibre se constitue progressivement par interactions successives entre
projet, instrument et fonction. Lorsqu’on se procure une machine, le projet d’emploi est souvent
très vaste. Puis au fil des échecs, de l’expérience, les ambitions se restreignent. »64

Mais l’usage conforme peut devenir aussi une fin en soi. « L’usager réel s’identifie à
l’usager rêvé. »65 L’usage peut devenir figé, stéréotypé. Il existe plusieurs catégories
d’altération d’un usage : la modulation ou sous-usage66 lorsqu’un projet autre que l’original
ou une autre fonction est introduite. Ainsi le Minitel proposait l’accès à des bases de
données tandis que les usagers ont introduit une forme de messagerie non prévue par ses
concepteurs. Les créations alternatives67 apparaissent lorsque le projet et l’appareil changent
bien que la fonction demeure. La substitution désigne la situation dans laquelle le projet et
la fonction de communication sont maintenus, mais il y a changement d’outil. Il existe une
incertitude sur l’ajustement après expérience. On change les usages en ajoutant des
fonctionnalités nouvelles68. Enfin, il peut y avoir un changement d’appareil et de fonction
pour un projet, tel le Citizen Band remplacé par le Minitel, chat69 (ou bavardage sur
Internet).

62
Ibid, p. 206.
63
Ibid, p. 206.
64
Ibid, p. 207.
65
Ibid, p. 207.
66
Ibid, p. 208.
67
Ibid, p. 209.
68
Ibid, p. 210.
69
Le terme chat vient du verbe anglais qui signifie bavarder. Il s’agit d’une conversation en-ligne avec un
groupe de participants souvent anonymes. Chacun envoie un message dactylographié.

30
Introduction Générale

Enfin, ce chercheur constate qu’il y a stabilisation de l’usage dans un milieu donné après
un laps de temps70

En définitive, l’analyse de Jacques PERRIAULT nous a permis de saisir la complexité


psychologique et sociologique liée aux usages et à l’appropriation d’une technologie. Sa
réflexion nous a aidé à enrichir notre grille d’analyse. Nous avons choisi d’observer
méticuleusement les aspects symboliques et mythiques liés aux agents et aux moteurs, de
confronter les représentations des concepteurs avec celles des usagers et d’y consacrer un
chapitre.

Pour le sociologue Dominique WOLTON, la compréhension de la communication,


domaine dans lequel s’inscrivent les technologies de l’intelligence artificielle, passe par
l’analyse des relations entre trois facteurs, « le système technique, le modèle culturel
dominant, le projet qui sous-tend l’organisation économique, technique, juridique de
l’ensemble des techniques de communication…(l’essentiel) est dans la compréhension des
liens plus ou moins contradictoires entre système technique, modèle culturel et le projet
d’organisation de la communication. »71

Notre position consistera à examiner les relations entre la technique, le social,


l’économique, afin d’appréhender les facteurs déterminants de l’appropriation à la fois des
usages des agents intelligents et de leurs substituts, les moteurs de recherche. En effet, une
nouvelle technique comporte une part de rêve et de frayeur. Une certaine mythologie
l’entoure. L’intelligence artificielle n’y fait pas exception.

Pour Alex MUCCHIELLI, l’informatique et les TIC (technologies d’information et de


communication) relancent le mythe de Prométhée, mais aussi le mythe de l’apprenti
sorcier72. C’est que les TIC peuvent nous asservir, porter atteinte à notre vie privée,
accroître la prospérité ou augmenter le niveau de chômage, creuser un fossé entre les pays
riches et pauvres, entre les citoyens aisés et les plus démunis. Autrement dit, augmenter la
fracture numérique.

70
Ibid, p. 217.
71
Dominique WOLTON, Internet et après, une théorie critique des nouveaux médias, Flammarion, Paris, 1999,
p. 16.

31
Les agents intelligents sur Internet : enjeux économiques et sociétaux

« L’imaginaire du progrès existe donc. Il est une production symbolique de notre culture.
Le phénomène "technologies nouvelles" est une caractéristique de notre époque. Il mobilise
toutes les énergies autour d’une nouvelle foi dans le progrès, bien que la réalité apporte
chaque jour des raisons de relativiser cette croyance. »73

Josiane JOUËT, professeur à l’Institut Français de Presse (Université de Paris II) insiste
sur la double médiation des TIC, entre la logique sociale et la logique technique, « car
l’outil utilisé structure la pratique, mais la médiation est aussi sociale car les mobiles, les
formes d’usage et le sens accordé à la pratique se ressourcent dans le corps social74. » Elle
s’interroge sur « la part du propre qui revient à l’usager75. » En effet, « l’usager se
construit ses usages selon ses sources d’intérêts76. » Pour ce chercheur, l’appropriation
définie comme la manière dont l’usager construit ses usages, « se fonde sur des processus
qui témoignent d’une mise en jeu de l’identité personnelle et de l’identité sociale de
l’individu77. » L’appropriation serait donc une construction personnalisée des usages.
Josiane JOUËT évoque trois dimensions dans l’appropriation des TIC : l’une subjective et
collective, une autre cognitive et empirique et une troisième identitaire.

La première souligne les usages que l’utilisateur invente et sur les significations que la
technologie revêt pour lui ainsi que l’autonomie qu’il déploie. Cependant, cette dimension
est aussi sociale.

La seconde implique des processus d’acquisition de savoir et de savoir-faire. L’usager


doit découvrir la logique et les fonctionnalités de l’objet et apprendre les codes et les modes
opératoires. L’auteur observe que dans la plupart des cas, « l’usager se contente d’une

72
Alex MUCCHIELLI, Les sciences de l’information et de la communication, Paris, Hachette « Coll. les
Fondamentaux », 3e édition, 2001, p. 34.
73
Idem, p. 35.
74
Josiane JOUËT, « Pratiques de la communication et figures de la médiation. Des médias de masse aux
technologies de l’information et de la communication », Paul Beaud, Patrice Flichy et alii, Sociologie de la
communication, Paris, CENT, Réseaux, 1997, p. 293.
75
Josiane JOUËT, « Retour critique sur la sociologie des usages », Réseaux, N° 100, p. 502.
76
Idem, p. 502.
77
Ibid, p. 503.

32
Introduction Générale

maîtrise partielle des fonctionnalités » et que « cette exploitation minimale s’avère souvent
suffisante pour satisfaire l’attente que l’acteur investit dans son usage78 ».

L’appropriation comporte une mise en jeu de l’identité personnelle et sociale de


l’usager. Si les usages apportent des satisfactions d’ordre individuel, ils s’intègrent dans la
sphère sociale et professionnelle. La maîtrise de l’outil informatique est un facteur de
succès professionnel :

« Cependant, la réalisation du moi se repère aussi dans certains usages professionnels des TIC, en
particulier auprès des professions intellectuelles supérieures, des cadres, pour lesquels
l’accomplissement personnel est fortement lié à la réussite professionnelle79. »

Les travaux de Josiane JOUËT nous ont permis de réfléchir à la relation entre
l’appropriation d’une technique et les enjeux professionnels des usagers. Si les utilisateurs
des logiciels agents (aspirateurs de site ou métamoteurs) font partie des professionnels de la
veille, il est fort possible que cette catégorie d’usagers s’intéresse ostensiblement à cette
technologie en le faisant savoir à sa clientèle potentielle. En effet, les sites professionnels
font état de l’usage des agents intelligents comme étant un élément incontournable de toute
stratégie de veille sur Internet80.

Patrice FLICHY81 analyse l’imaginaire lié à Internet en termes de mythes, d’idéologies


et d’utopies. Pour lui, le mythe « transforme une histoire en une représentation naturelle …
Il se distingue du symbole par le fait qu’il s’appuie sur un fait réel. »82 L’idéologie et
l’utopie constituent les deux pôles de l’imaginaire social, l’un cherchant à « conserver
l’ordre social, l’autre à le bouleverser. »83 L’intelligence artificielle ne peut pas être
séparée de son contexte historique, voire idéologique que constituent Internet et la
globalisation de l’économie mondiale, ni de sa dimension mythique et utopique.

78
Ibid, p. 503.
79
Ibid, p. 503.
80
[Link] ([Link] agentland ([Link] par exemple.
81
Patrice FLICHY, L’Imaginaire d’Internet, Editions La Découverte, Paris, 2001.
82
Idem, p. 12-14.
83
Ibid, p. 12-14.
33
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Patrice FLICHY met en garde contre le déterminisme technique et le déterminisme


social et considère le rapport entre l’offre technologique et la demande sociale comme un
ensemble de relations complexes motivant l’innovation :

« Pour tenir l’objectif que je me suis fixé – étudier l’innovation dans ses deux composantes
technique et sociale -, il me faut abandonner le modèle déterministe, rigide ou lâche, et choisir
d’étudier les interactions permanentes entre technique et société84. »

Six ans après la publication d’Innovation Technique, Patrice FLICHY publie un ouvrage
sur le thème de l’imaginaire d’Internet, œuvre dans laquelle il met en pratique les outils
d’analyse exposés auparavant. Il développe un historique des communautés qui se sont
créées autour de l’informatique en réseau : communautés de scientifiques et communautés
de hackers sorties des mouvements de la contre-culture américaine des années soixante.
Patrice FLICHY met l’accent sur les projets utopistes des fondateurs. L’étude des écrits de
ces derniers permet de comprendre comment les représentations85 et les pratiques se sont
construites. Nous avons constaté que ce même phénomène se trouve autour des moteurs de
recherche et d’autres types d’agents aujourd’hui.

Philippe BRETON examine trois attitudes envers les TIC, et notamment Internet : celle
des partisans du tout-Internet, les « thuriféraires86 », qui font d’Internet l’objet d’un
véritable culte, d’une nouvelle frontière. Ces derniers comprennent des écrivains comme
Nicolas NEGROPONTE87, directeur du Medialab au MIT, l’entrepreneur Bill GATES88,
président de Microsoft parmi bien d’autres et le philosophe Pierre LÉVY en France. Par
contre, les technophobes voient dans les TIC un péché sinon un danger pour le lien social.
Parmi les chercheurs hostiles à Internet Jacques ELLUL et Paul VIRILIO qui mettent en
garde contre une « Tchernobyl informatique. »89. Partisans d’un usage raisonné, ils
considèrent les TIC comme des outils mais non pas comme les instruments d’une
révolution sociale.

84
Patrice FLICHY, L’innovation technique, Editions La Découverte, Paris, 1995, p. 70.
85
Patrice FLICHY, L’Imaginaire d’Internet, Editions La Découverte, Paris,2001, p. 94.
86
Qui porte l’encens et l’encensoir, du latin thur, l’encens et ferre, porter : enthousiaste, partisan d’une idée.
87
Nicholas NEGROPONTE, Being Digital, Vintage Books, New York, 1996.
88
Bill GATES, The way ahead, Penguin, London, 1995.
89
Philippe BRETON, Le culte d’Internet, Une menace pour le lien social ?, La Découverte, 2000, p. 17.

34
Introduction Générale

Danielle BAHU-LEYSER a étudié les conséquences de l’installation des TIC sur le plan
sociétal, gouvernemental et professionnel dans le cadre d’un cycle d’ouvrages90 sur les
finalités des nouvelles technologies et leurs conséquences sur l'organisation de l’État. Elle
s’interroge sur les effets d’Internet, notamment sur les médias traditionnels, sur nos futurs
modes de consommation et d’interaction, et sur les problèmes d’éthique liés à la mise en
réseau des informations de toute nature. En amont, elle soulève la question de la prise de
décision et du pouvoir.

La problématique de l’éthique développée par Danielle BAHU-LEYSER et Pascal


FAURE nous a permis d’entrevoir certains enjeux sociétaux. Pour reprendre l’expression
d’Edgar Morin, les TIC portent en elles « autant de virtualités émancipatrices que de
virtualités asservissantes91. » Les auteurs d’Éthique et société de l’information évoquent le
risque« (d’) un monde policier et de surveillance permanente92. » Ce monde, à notre avis,
est rendu possible par certaines applications de l’intelligence artificielle intégrées dans les
moteurs de recherche. C’est un point que nous développerons dans notre chapitre consacré
à l’échange d’informations entre usagers et systèmes.

Les points évoqués dans cette introduction concernent l’éventualité d’une société, voire
d’un monde, à deux vitesses, « entre ceux qui ont et ceux qui n’ont pas accès aux services
de la société de l’information.93 » L’enjeu, ici, est l’accentuation ou non des fractures
sociales. Selon les deux auteurs, il est nécessaire de réguler les services marchands « sous
peine de porter atteinte à la concurrence loyale entre fournisseurs et prestataires de ces

90
Danielle BAHU-LEYSER, Christophe DIGNE (sous la direction de) TIC, qui décide ?, la documentation
Française, Paris, 2002.
Danielle BAHU-LEYSER, Pascal FAURE , (sous la direction de), Nouvelles Technologies Nouvel État, La
Documentation Française, Paris, 2001.
Danielle BAHU-LEYSER, Pascal FAURE (sous la direction de) Médias, e-médias, La Documentation
Française, Paris, 2001.
Danielle BAHU-LEYSER, Pascal FAURE (sous la direction de) Éthique et société de l’information, La
Documentation Française, Paris, 1999.
91
Idem, p. 14, phrase citée par Danielle BAHU-LEYSER, Pascal FAURE, d’Edgar Morin, « Le XXI siècle a
commencé à Seattle » Le Monde 7 décembre 1999.
92
Ibid, p. 14.
93
Ibid, p. 16.
35
Les agents intelligents sur Internet : enjeux économiques et sociétaux

biens et services ou de nuire aux utilisateurs de ces biens et services94. » Il est également
indispensable de protéger la libre expression de chacun sans « porter préjudice à
l’ensemble des utilisateurs ou à des utilisateurs sectoriels95. »

Danielle BAHU-LEYSER et Pascal FAURE préconisent une régulation partagée des


différents acteurs afin « d’en limiter les dérives » et « de protéger les acteurs et les
utilisateurs96. » Cependant, Internet pose des problèmes d’ordre juridique international. La
conception de la liberté n’est ni unique ni uniforme. Les Américains ont une culture et des
valeurs vis-à-vis de la liberté d’expression différentes des Européens. Les premiers font peu
de cas de l’abus de liberté. Les modalités de celle-ci s’inscrivent dans le Premier
Amendement de la Constitution (1791). Par conséquent, les Américains sont partisans de
l’auto-réglementation des acteurs et des secteurs concernés.

La technologie de l’intelligence artificielle et celle des agents intelligents font partie de


celle d’Internet. Il est difficile d’examiner les usages de la première sans réfléchir sur les
finalités du dernier, car l’intelligence artificielle constitue la partie invisible du réseau.

Nous ferons appel en second lieu à la théorisation de la nouvelle économie d’Internet,


théories qui ont émergé à la fin des années 90. Ces théories nous aident à mesurer les
enjeux économiques qui sont présents implicitement dans les modèles économiques
caractéristiques d’Internet. Force est de constater que nous avons très peu de recul par
rapport aux phénomènes qui se sont produits dans les quatre dernières années et qui ont
modifié profondément l’interprétation qu’on peut avoir de cette nouvelle économie mise en
échec par un crack boursier.

Michel VOLLE présente la nouvelle économie comme une économie de l’information et


de l’immatériel, laquelle se définit par une fonction de production à coût fixe, certains
critères de dimensionnement, l’importance des systèmes techniques, et une concurrence
monopoliste97. Les rendements croissants sont caractéristiques des technologies de
l’information et de la communication (TIC), ce qui implique une fonction de production à

94
Ibid, p. 17.
95
Ibid, p. 17.
96
Ibid, p. 17.
97
Michel VOLLE, e-conomie, Economica, Paris, 2000, p. VIIII-IX.

36
Introduction Générale

coût fixe avec un coût marginal quasi nul. Pour Michel VOLLE, la fonction de production à
coût fixe entraîne pour chaque bien un monopole naturel et, par conséquent, la survie d’une
seule entreprise. Il est donc nécessaire de différencier l’offre en fonction de la demande98.
Michel VOLLE définit la concurrence monopoliste de la manière suivante :

« Les entreprises construisent pour chaque variété du bien un petit monopole particulier aux
frontières duquel elles sont en concurrence avec les fournisseurs de variétés voisines. Ainsi la
concurrence monopoliste est endogène au modèle : à l’équilibre, le nombre de variétés produites
est déterminé, ainsi que la quantité vendue et le prix de chaque variété. »99

Nous démontrerons que la diversification de l’offre en matière d’agents logiciels passe


par l’innovation et la capacité à inventer de nouvelles fonctionnalités à valeur ajoutée ; et
que la concurrence se fait entre les activités des moteurs de recherche et, à un moindre
degré, celles des agents logiciels métamoteurs. Les uns et les autres tantôt ciblent le même
public, tantôt se réservent une clientèle différenciée. En 2004, la presse américaine évoque
l’éventualité d’une guerre entre moteurs de recherche car les enjeux économiques de ce
secteur deviennent de plus en plus importants, de l’ordre de 3 milliards de dollars100 par an
aux États-Unis.

Michel VOLLE poursuit son analyse en mettant l’accent sur l’importance de la


médiation dans la formation de la demande (identification des besoins et connaissance de
l’offre) qui est difficile. Le médiateur est celui qui est capable de trouver l’offre
correspondant aux besoins des clients, ce qui implique une personnalisation de la
transaction et une minimisation du coût. Or, ce sont les agents du one-to-one et du profilage
qui trouvent leur raison d’être en automatisant les processus de transaction et de
personnalisation de la clientèle. Le développement des agents comparateurs de prix est
motivé par les gains à tirer de cette fonction d’infomédiation. Les entreprises de conseil,
également, peuvent se constituer médiateurs entre leurs clients et les éditeurs d’agents. De
même que les portails et les moteurs constituent un intermédiaire entre les sites
commerciaux et les usagers finals.

98
Idem, p. 2.
99
Ibid, p. 3.
100
Jean-Christophe FÉRAUD, « Google contre Microsoft, la guerre des moteurs», La Tribune du 17 février 2004, p.28-29

37
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Nous entrons dans une économie de risques entraînée par la fonction de production à
coût fixe101. En effet, la totalité du coût de production est dépensée avant même qu’il y ait
vente du bien sur le marché, ce qui nécessite un partenariat et qui implique une concurrence
soit par les prix soit par l’innovation. Ce facteur va s’avérer déterminant en ce qui concerne
la survie des entreprises d’Internet, notamment les portails intégrant un moteur de
recherche, un annuaire et d’autres services à valeur ajoutée.

Pour l’entreprise, la nouvelle économie exige des changements dans l’organisation


caractérisés par des procédures de contrôle a posteriori, la limitation des niveaux
hiérarchiques, la personnalisation des relations avec les clients, l’intégration du client dans
le système de l’information de l’entreprise. Là encore, le développement de la technologie
one-to-one aura un rôle important à jouer dans la mise en place de ce type de relation.

La mondialisation est responsable de la réduction des barrières liées à la distance et de


l’augmentation des risques pour l’entreprise102. Il y a d’abord des dangers liés à la
désinformation et à la surveillance des activités de chacun, sans mentionner les attaques
virales et le piratage de diverses natures.

Les logiciels agents correspondent au schéma économique de la nouvelle économie. En


effet, le coût de développement initial est élevé, mais une fois le logiciel testé et mis sur le
marché, il devient minime car l’utilisateur ne fait que télécharger une copie du produit dont
le seul support physique est la mémoire du serveur de l’éditeur de logiciel et le disque dur
du PC du client. Le coût de la reproduction en est d’autant plus faible que celui du
développement et de la mise à jour est élevé. L’innovation permanente est d’autant plus
nécessaire que la concurrence reste acharnée. Tout laisse à penser que les marchés tendent
vers une concentration qui élimine les firmes les moins innovantes et les moins
performantes.

Comprendre les enjeux d’Internet équivaut à explorer la manière dont la valeur se crée
sur ce média à facettes multiples.

101
Ibid, p. 4.
102
Ibid, p. 5.

38
Introduction Générale

Pour Eric BROUSSEAU et Nicolas CURIEN103, la nouvelle économie serait considérée


par certains commentateurs comme un nouveau régime de croissance, ce qui a contribué à
la création puis l’amplification d’une bulle spéculative autour des entreprises en-ligne. Ils
en concluent d’après les travaux d’autres chercheurs américains ou français que les TIC ne
conduisent pas forcément à une amélioration des performances économiques, que les biens
et services informationnels n’échappent pas aux règles fondamentales de la science
économique, et que la croissance américaine ne se fondait pas seulement sur les innovations
en matière de TIC au cours des années quatre-vingt-dix104. Cette thèse a été étudiée en détail
par Patrick ARTHUS105.

L’usager d’Internet a l’impression que l’accès à l’information est gratuit106. Cette notion
de gratuité provient de l’idéologie fondatrice d’Internet. Les universitaires américains
utilisaient les réseaux pour communiquer et partager le savoir. Pour ces pionniers
d’Internet, il fallait s’échanger librement les fruits de leurs recherches en matière de
programmation. Se développait alors le logiciel libre (freeware107). Dans un texte posté sur
un forum d’Usenet, Free Unix, le 27 septembre 1983, Richard STALLMAN108 annonce son
intention de créer un système d’exploitation et des applications, tous fondés sur Unix. Le
Projet GNU (GNU is not Unix) est né. Le même auteur propose un protocole de licence
appelé Copyleft, qui donne un certain nombre de droits à l’utilisateur. Il s’agissait de
pouvoir utiliser le logiciel, le copier, le diffuser, le modifier sans pour autant protéger les
modifications proposées. Il est même possible d’en vendre des copies sur CD. Le Free
Software Foundation voit le jour en 1984 pour financer le développement des applications.

103
Eric BROUSSEAU et Nicolas CURIEN, « Economie d’Internet », Numéro hors série de La revue
économique, vol. 52, octobre 2001. Version en langue anglaise : « Internet economics, digital economics »,
[Link] consulté le 30 janvier, 2004.
104
Idem, p. 2
105
Patrick ARTUS, La nouvelle économie, La Découverte, coll. Repères, 2e édition, Paris, 2002.
106
En réalité, l’État fédéral américain a largement contribué à la gratuité des services et du réseau en général par
le biais de subventions aux centres de recherche.
107
Free a le sens de libre plutôt que celui de gratuit. Logiciel libre plutôt que « gratuitiel ».
108
Richard STALLMAN, « Original Announcement of the GNU project », le 27 sept. 1983. Source :
[Link] et [Link] consulté le 9
janvier 2004.
39
Les agents intelligents sur Internet : enjeux économiques et sociétaux

C’est toutefois Linus TORVALDS qui apporte le noyau du système d’exploitation, Linux,
en 1990.

Le modèle commercial du freeware s’oppose au modèle propriétaire pratiqué par les


entreprises comme Microsoft, sociétés qui ne divulguent pas le code source de leurs
logiciels. Le modèle du freeware et du open source permet aux informaticiens d’étudier,
d’améliorer et surtout de déboguer les programmes. Dans le modèle du shareware, les
usagers doivent contribuer au développement en versant une somme modique aux éditeurs
de ce type de logiciel. Selon Richard STALLMAN, free ne signifie pas gratuit mais libre.
Un programmeur peut demander une contribution sous forme d’honoraires (fees) pour son
travail. On autorise l’internaute à se servir d’un logiciel pendant un temps d’essai ; ensuite
on lui demande de payer pour outrepasser cette même période d’essai. Cependant,
beaucoup de logiciels sont offerts gratuitement. Il existe des versions payantes destinées
aux entreprises et des versions simples à l’intention des internautes109.

Dans ce contexte de gratuité attendue, comment faut-il s’y prendre pour gagner de
l’argent et financer le développement économique d’une entreprise ? La firme Netscape,
par exemple, donnait au public, sans obligation de paiement, son logiciel de navigation
mais développait par la même occasion ses services et ses serveurs auprès des entreprises.
Quant à la firme Adobe, elle a distribué gratuitement son logiciel de lecture du format PDF
(Acrobat PDF Reader) tout en faisant payer celui qui permet de créer des documents sous
ce même format (Acrobat PDF Writer). Elle combine ainsi la gratuité et la rémunération du
produit.

Ce qui compte, c’est acquérir la position de leader dans le secteur, se rendre


indispensable, proposer le standard incontournable car le coût d’une migration
technologique (ou coût de sortie) serait trop élevé en argent ou en temps de formation.
Quant à Microsoft, la firme de Seattle s’est tout simplement abstenue d’attaquer en justice
les particuliers qui pirataient sa suite de logiciels Office. Puisque tout le monde savait
l’utiliser, Office devenait de facto incontournable pour les entreprises, qui, elles, devaient
en acquérir les licences. En quelque sorte, Microsoft a exploité d’une manière ambiguë le
modèle de la gratuité.

40
Introduction Générale

John Perry BARLOW110, co-fondateur du Electronic Frontier Foundation, propose un


modèle de rémunération des produits immatériels. Pour John Perry BARLOW, si un bien
matériel prend sa valeur à cause de sa rareté, cela n’est nullement le cas quand il s’agit
d’une information. Car parfois la valeur de celle-ci augmente avec sa diffusion. C’est
pourquoi certaines formes d’information devraient être diffusées gratuitement. Or certains
types d’information n’ont de valeur que si peu de personnes les possèdent, et cette valeur
diminue ou disparaît en fonction du temps qui passe. Dans ce cas précis, John Perry
BARLOW préconise l’utilisation de la cryptographie plutôt que l’outil juridique, difficile à
faire fonctionner au sein d’un marché mondial. Il propose, en outre, que les entreprises
mettent à la disposition des usagers des logiciels gratuits et leurs offres de services
supplémentaires payants.

Le but de la gratuité, en définitive, consiste à créer un marché captif où les usagers


s’habitueront à se servir d’une interface et seront prêts à payer pour la continuité du
logiciel, des fonctionnalités supplémentaires et des services de mise en place ou de
maintenance. Le coût de transfert vers un autre produit serait trop élevé en temps de
formation. Voilà en quelques mots l’enjeu actuel des moteurs de recherche et des portails.
La gratuité, à l’évidence, joue un rôle essentiel dans la problématique des modèles
économiques d’Internet.

La notion de business model est très récente. L’ouvrage111 de Bernard MAITRE et de


Grégoire ALADJIDI nous a permis de prendre connaissance des enjeux des modèles
économique d’Internet en 2000. Depuis lors, des chercheurs français se sont intéressés à
cette problématique, notamment Noémie BEHR, qui a réalisé une étude pour la Direction
Générale de l’Industrie, des Technologies de l’Information et des Postes en 2001112.

109
La firme [Link] vend des logiciels de sécurité informatique (zonealarm) aux entreprises tout en offrant
une version gratuite au grand public. Source : [Link] consulté le 9 janvier 2004.
110
John P. Barlow, « The Economy of Ideas. A framework for rethinking patents and copyright in the Digital
Age. », Wired, March 1993, p. 86. Référence sur Internet :
[Link] consulté le 12 8 2003.
111
Bernard MAÎTRE, Grégoire ALADJIDI, Les Business Models de la Nouvelle Économie, Dunod, Paris, 2000.
112
Noémie BEHR, « Modèles économiques de Portails », étude réalisé par le CERNA pour la Direction
Générale de l’Industrie, des Technologies de l’Information et des Postes en 2001,
[Link]/Documents/[Link], consultée le 8 décembre 2003.
41
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Nous avons consulté des ouvrages et des articles sur l’intelligence artificielle (IA) et la
notion d’agent intelligent. Nous avons commencé notre lecture par l’ouvrage de l’un des
pionniers de la discipline, Patrick H. WINSTON113 pour comprendre la modélisation de
l’IA. Pour approfondir les méthodes de programmation, nous avons consulté le livre de
Stuart J. RUSSEL et Peter NORVIG114, qui met en perspective l’approche agent. Le livre de
Jeffrey M ; BRADSHAW115 , An introduction to software agents, nous fournit un panorama
de la recherche en technologie agent (agenthood). La théorisation des systèmes multi-
agents est présentée par Jacques FERBER. L’ouvrage de Alper CAGLAYAN et Colin
HARRISON116, Agent Sourcebook, A Complete Guide to Desktop, Internet, and Intranet
agents, nous a aidé à définir une typologie d’agents adaptés à Internet. Pour connaître les
enjeux des agents de l’e-commerce, nous avons utilisé le livre de Corina PARASCHIV117.

Nous avons choisi de diviser notre thèse en trois parties. L’interaction entre la technique,
le social, l’économique et l’imaginaire constitue l’aboutissement de notre réflexion à partir
de notre hypothèse directrice.

La première partie de cette thèse présente la technologie. Le premier chapitre introduit


l’objet de notre recherche, les agents intelligents. Nous retracerons l’histoire de la recherche
en intelligence artificielle pour démontrer l’enjeu anthropologique de cette discipline. Dans
notre deuxième chapitre, nous proposerons quelques définitions du terme agent intelligent
et une typologie d’agents destinés aux usagers d’Internet.

Le troisième chapitre a pour objectif de démontrer dans quelle mesure la technologie


agent s’est intégrée progressivement dans les moteurs de recherche. Nous ferons la
comparaison entre Google, le moteur le plus utilisé en 2003, et Copernic, agent du type

113
Patrick H. WINSTON, Artificial Intelligence, Addison-Wesley, Reading Mass., 1984.
114
Stuart J. RUSSEL, Peter NORVIG, Artificial Intelligence, A Modern Approach, Prentice-Hall International,
Inc, New Jersey, 1995.
115
Jeffrey M. BRADSHAW. Software Agents, AAAI Press/ The MIT Press, Boston, 1997.
116
Alper CAGLAYAN, Colin HARRISON, AGENT SOURCEBOOK, A Complete Guide to Desktop, Internet,
and Intranet agents, Wiley Computer Publishing, New York, 1997.
117
Corina PARASCHIV, Les agents intelligents pour un nouveau commerce électronique, Hermès, coll.
« Technique et scientifique des Télécommunications », Paris, 2004.
117
Gilles DERUDET, « La révolution des agents intelligents », Internet Professionnel, N° 9, mai 1997, p. 74-79.

42
Introduction Générale

métamoteur, le plus cité par les personnes interrogées. Nous proposerons une explication du
succès de Google, relevant de la technique, du social et peut-être de l’imaginaire.

Le quatrième chapitre aborde le problème des limites des moteurs à satisfaire pleinement
les besoins des utilisateurs. Internet présente trois points importants pour ce qui est de la
collecte d’information d’un point de vue stratégique : le site Web, le moteur de recherche
par lequel passe l’internaute et le disque dur de l’usager. Un modèle technique devrait
émerger pour connecter le second au troisième. La surcharge d’information doit être gérée
aussi bien localement (sur les PC des internautes) que sur les moteurs. Un enjeu
économique majeur consiste à faire adopter par les usagers une interface gérant
l’information en local et l’interaction entre le moteur, le site Web ciblé et l’utilisateur. Nous
répondrons ainsi à la question motivant la seconde partie de notre hypothèse.

La seconde partie met l’accent sur l’observation des usages et des usagers. Le premier
chapitre dresse le bilan de notre analyse des pratiques de recherche informationnelle dans le
milieu universitaire et celui de la veille.

Le second chapitre, qui découle du précédent, est consacré aux représentations des
agents et moteurs et s’appuie sur les méthodologies développées par la sociologie des
usages. Nous confrontons le discours techniciste des scientifiques et des éditeurs de
logiciels avec les propos des usagers. Sur le plan de l’imaginaire, le terme moteur de
recherche reste peut-être plus neutre que celui d’agent intelligent et n’inspire ni les craintes
ni les attentes inspirées par cette dernière expression. L’intelligence artificielle et les
programmes dérivés entrent dans un cadre mythique et symbolique.

La troisième partie analyse les enjeux économiques et sociétaux liés à l’intégration des
agents intelligents dans les moteurs de recherche et les conséquences de ce processus pour
l’usager.

Le premier chapitre traite du rôle de la gratuité dans le système d’échange


d’informations entre l’usager et le moteur. Nous examinerons les implications de cet
échange pour le commerce électronique mais également les dangers qu’il représente pour
l’individu. Si les aspects positifs existent, surtout la possibilité de financer le
développement des moteurs et des portails, le piratage, le manque de confidentialité et
l’exploitation de la vie privée des internautes représentent sans doute l’enjeu négatif de tout

43
Les agents intelligents sur Internet : enjeux économiques et sociétaux

ce dispositif. Ce chapitre, par la nature des thèmes abordés, ne sépare pas les enjeux
économiques d’avec le social car les uns s’imbriquent dans les autres. La surveillance des
activités de chacun est-elle le prix à payer pour un immense service gratuit, l’accès à une
énorme banque de données planétaire ? On peut se demander, d’ailleurs, si les usagers ont
bien pris conscience de cet échange d’informations.

Le deuxième chapitre est prospectif. La convergence du téléphone avec Internet et avec


les moteurs de recherche ouvre de nouvelles perspectives. En effet, l’internaute peut se
connecter à Internet n’importe où, ce qui de nécessité entraînerait de nouveaux usages
accompagnés par leurs conséquences économiques et sociétales inéluctables. Les moteurs
de recherche favorisent-ils la convergence des technologies de communication ? Ainsi
compléterons-nous notre réponse aux trois aspects de notre hypothèse directrice.

Le dernier chapitre étudie la mission des moteurs concernant la création d’une mémoire
collective. S’agit-il d’une utopie ou d’un projet réalisable. La construction progressive de la
nouvelle Bibliothèque d’Alexandrie, ne constitue-t-elle pas le plus important enjeu de ce
début de millénaire ?

La conclusion permettra de synthétiser les résultats de notre recherche et de présenter


une interprétation des interactions entre le social, la technique, l’économique.

44
PREMIERE PARTIE

1. DE NOUVELLES MACHINES À COMMUNIQUER

1.1. INTRODUCTION

La recherche dans le domaine des agents intelligents d’Internet marque l’aboutissement


d’une longue histoire associant un projet utopique118, une mythologie qui remonte à la
Haute Antiquité, et des progrès technologiques rendus possibles par la naissance de
l’informatique au lendemain de la Seconde Guerre mondiale. L’entreprise qui consiste à
construire un « cerveau électronique » ou une « machine pensante » n’est pas dépourvue
d’intérêt pour les sciences de l’information et de la communication. Si l’on étudie l’histoire
de cet ambitieux domaine de recherche, il est possible de dégager les éléments liés à
l’imaginaire collectif. D’ailleurs, cet aspect, étudié par Patrick FLICHY et d’autres
chercheurs, présente d’intéressantes pistes d’investigation scientifique. Cependant, il
faudrait d’abord définir sommairement le terme « agent intelligent ».

La dénomination recouvre divers objets informatiques. Ceux-ci ont un point en


commun : ils se réfèrent implicitement à la recherche en intelligence artificielle (IA).
L’objectif de cette partie est de tenter de définir cette expression, ce qui n’est pas une tâche
facile. Ensuite il nous incombe de démontrer comment les moteurs de recherche ont intégré
la technologie agent à l’insu de l’usager. Cette intégration technologique fait l’objet de
notre première hypothèse, alors que jusqu’à présent, le terme moteur de recherche et celui

118
L’adjectif « utopique » est pris par rapport à une technique idéale capable d’apporter des progrès et des
bienfaits pour l’homme et la société. Le Petit Robert définit utopie comme « un idéal, vue politique ou
sociale qui ne teint pas compte de la réalité. »

45
Les agents intelligents sur Internet : enjeux économiques et sociétaux

d’agent intelligent restaient strictement séparés ; le dernier dénotant le plus souvent un


métamoteur de recherche.

Le premier chapitre introduit ces nouvelles techniques en les insérant dans leur contexte
historique et sociétal. C’est pourquoi nous présenterons d’abord l’histoire de l’intelligence
artificielle en mettant en relief la dimension imaginaire et utopique de cette jeune
discipline. Ensuite, nous proposerons un corpus de définitions du terme « agent intelligent »
avant de dresser une typologie des principaux logiciels utilisés sur Internet.

Toutefois, il nous faut délimiter le champ de recherche. Ainsi mettrons-nous l’accent sur
les agents intelligents dont la fonction principale est de collecter des informations sur
Internet et de les traiter : celles publiées sur les pages Web et d’autres concernant la
navigation des internautes.

La comparaison des deux outils de recherche, Copernic (agent logiciel métamoteur) et


Google (moteur de recherche) nous permet de démontrer comment ce dernier est devenu un
véritable agent intelligent sans que ni ses propriétaires ni les usagers ne l’identifient en tant
que tel. Le premier est le logiciel agent le plus connu alors que le second fait l’objet d’un
intérêt médiatique important et semble être le moteur le plus populaire en 2003 d’après nos
enquêtes. D’autres sources l’ont confirmé en 2004. C’est le modèle économique conçu par
cette firme de la Silicon Valley qui, à notre avis, pourrait déterminer l’évolution de
l’innovation en recherche informationnelle sur Internet dans les années à venir.

Nous ne séparerons pas arbitrairement l’étude des aspects sociaux, économiques et


techniques. Ce sont, en effet, les interactions entre ces trois facteurs qui nous permettent de
fournir une interprétation. Par conséquent, nous restons dans le cadre socio-technique défini
dans notre introduction générale.

46
Première partie ─ De nouvelles machines à communiquer

1.2. HISTOIRE D’UN PROJET UTOPIQUE : L’INTELLIGENCE ARTIFICIELLE


Les logiciels et progiciels dits « agents intelligents » correspondent aux applications qui,
d’une manière ou d’une autre, sont les fruits de la recherche en intelligence artificielle (IA).
Cette nouvelle discipline débute officiellement en 1956. C’est l’association du programme
informatique et de l’intelligence artificielle que les éditeurs de logiciels cherchent à mettre
en valeur et à communiquer aux usagers potentiels, implicitement ou explicitement, en
qualifiant leur produit d’intelligent.

L’intelligence artificielle a été progressivement incorporée dans les applications comme


Windows et Office de Microsoft, avec la création des programmes appelés assistants. En
d’autres termes, cette technologie informatique est devenue transparente au sens
informatique du mot, donc invisible pour l’utilisateur final. Nous pensons que les moteurs
de recherche et les portails l’ont intégrée aussi.

Avant de présenter l’historique de l’intelligence artificielle, établir le bilan de la


recherche sur l’intelligence humaine s’impose.

RECHERCHE EN INTELLIGENCE HUMAINE


Il est difficile d’imaginer le développement de l’intelligence artificielle sans évoquer
sommairement les premières recherches sur l’intelligence humaine. Depuis l’Antiquité,
toute réflexion sur ce problème était caractérisée par l’introspection. En effet, la
psychologie faisait partie de la philosophie jusqu’au début du vingtième siècle. Ce n’est que
vers 1900 que commence l’étude expérimentale et objective de l’intelligence. Ainsi la
psychologie en tant que discipline à part entière voit le jour.

En 1904 Charles SPEARMAN, par le biais de l’analyse factorielle met l’accent sur la
notion d’intelligence générale. L’échelle de développement intellectuel d’Alfred BINET et
de Théodore SIMON remonte à 1905. La notion de QI (quotient de l’âge mental sur l’âge
naturel) a été introduite par STERN en 1911. Les tests élaborés depuis cette date avaient
pour objectif de faciliter l’orientation scolaire. Il s’ensuit que les définitions de
l’intelligence sont fortement influencées par les tests d’évaluation.

47
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Les débats sur la définition de l’intelligence humaine ont soulevé deux problèmes
essentiels. Cette faculté de l’homme est-elle essentiellement innée ou acquise, et est-elle
caractérisée par l’unicité ou la multiplicité ? En effet, s’agit-il d’une intelligence générale
ou d’une pluralité d’intelligences spécialisées et spécifiques ?

Charles SPEARMAN (1863-1945) préconisait l’existence d’une seule intelligence


générale, le facteur G, pour expliquer toutes les manifestations d’intelligence. Il
recherchait, grâce à l’analyse factorielle, les facteurs communs, la performance relative aux
différentes tâches proposées. Au contraire, Louis THURSTONE (1887-1955) élabore un
modèle multifactoriel de l’intelligence. Après des années de débat sur le sujet, John B.
CARROLL conçoit en 1993 une synthèse des deux points de vue extrêmes consistant en
une représentation pyramidale à trois niveaux de l’intelligence.

« L’avantage du modèle hiérarchique à trois strates de CARROLL est de réaliser une véritable
synthèse entre les conceptions unitaires et multifactorielles de l’intelligence. D’une part, il
distingue des formes d’intelligence variées relativement indépendantes : il est donc possible d’être
très performant dans l’une d’entre elles sans l’être nécessairement tout à fait dans les autres.
D’autre part, il affirme l’existence d’un facteur général, puisqu’il y a une tendance à ce que les
sujets les plus performants dans l’une de ces formes d’intelligence le soient aussi dans les
autres. »119

Jean PIAGET (1896-1980), quant à lui, s’intéresse aux étapes du développement de


l’intelligence chez l’enfant. Ses travaux concernent la formation du nombre, de la causalité,
des notions de l’espace et du temps, et de la fonction symbolique. Il propose une définition
à partir de la notion de complexité:

« Il reste cependant possible de définir l’intelligence par la direction dans laquelle est orienté son
développement…. on peut dire qu’une conduite est d’autant plus intelligente que les trajectoires
entre le sujet et les objets de son action cessent d’être simples et nécessitent une composition
progressive120 »

Dans les années 60, les sciences cognitives, comprenant les neurosciences, la
psychologie cognitive, la linguistique, l’informatique et l’intelligence artificielle,

119
Jacques LAUTREY, « L’Intelligence de la mesure aux modèles », Sciences Humaines, N°116, mai 2001, p.
23.
120
Jean PIAGET, La psychologie de l’intelligence, Armand Colin, Paris, 1967, p. 17.

48
Première partie ─ De nouvelles machines à communiquer

proposaient des modèles destinés à expliquer les processus sous-jacents aux conduites
intelligentes. Leur approche, fondée sur les théories du traitement de l’information, met en
lumière l’importance de la mémoire121, de son organisation, et surtout de la résolution des
problèmes, point de départ de l’intelligence artificielle. La psychologie cognitive
différentielle se développe à la fin des années 60. L’objectif en était « d’identifier les
processus sous-jacents aux grands facteurs de l’intelligence » comme « l’intelligence
fluide, conçue comme une capacité d’adaptation à de nouvelles situations, mettant en
œuvre les aptitudes au raisonnement (induction, déduction, etc.) et faisant très peu appel
aux connaissances acquises. »122

Les études conduites par les chercheurs tels que CARPENTER, JUST et SHELL en
1990, mettent l’accent sur l’importance de la mémoire de travail, qui permet de stocker les
résultats intermédiaires d’un problème (l’intelligence fluide). L’autre mémoire, produit de
la recherche en sciences cognitives, la mémoire déclarative, stocke ses connaissances
explicites, selon une organisation très structurée, sous forme de réseaux. Celle-ci pourrait
expliquer l’intelligence cristallisée (ou verbale).

L’intelligence artificielle est redevable de cette recherche sur l’intelligence humaine.


Dès ses débuts, cette jeune discipline s’est efforcée de comprendre les conduites humaines
considérées comme manifestations de l’intelligence pour les modéliser et les mettre en
œuvre sur des ordinateurs. Des problèmes tels que le stockage des connaissances explicites,
la gestion de la mémoire de travail, le stockage des résultats intermédiaires, et le
raisonnement, ont fourni à l’intelligence artificielle ses premiers défis et champs de
recherche. Les progrès obtenus dans le domaine de l’intelligence humaine ont sans aucun
doute contribué au développement de l’intelligence artificielle. Il y a eu, par conséquent,
une interaction entre la recherche en intelligence artificielle et en psychologie, ce qui a
permis aux deux disciplines de progresser.

« Un des problèmes importants à résoudre concerne la modélisation des différentes formes de


connaissances, leur stockage et leur utilisation en vue d’un comportement adapté dans un

121
Ce problème de mémoire, lié à l’intelligence, et de son organisation se situe au cœur de l’activité des moteurs
de recherche. C’est une véritable mémoire de l’humanité qui est en train de se mettre en place grâce à leur
développement.
122
Idem, p. 25.
49
Les agents intelligents sur Internet : enjeux économiques et sociétaux

environnement donné. On a donc affaire à deux approches d’un même problème, qui vont donner
des modélisations de nature différente et pourtant complémentaires : le développement de modèles
formels et celui de modèles dérivés de l’étude expérimentale. Cette différence s’articule autour de
la nécessité ou non de s’attacher à une modélisation précise du fonctionnement cognitif humain,
donc contrainte par les faits expérimentaux - ce qui est le fondement de la psychologie cognitive -
ou bien à une modélisation formelle des mécanismes de la connaissance, donc théorique et sans
autres contraintes que celles du modèle lui-même et de la machine utilisée comme support - ce qui
est le fondement de l’intelligence artificielle. Des modèles généraux des connaissances peuvent être
communs aux deux disciplines, puis diffèrent ensuite dans leur application. »123

Ainsi la recherche en psychologie a-t-elle favorisé les premières simulations des


conduites intelligentes sur ordinateur. Cependant, l’histoire de la machine intelligente
commence bien avant l’ère informatique et joue un rôle dans la construction de l’imaginaire
collectif.

HISTOIRE DE L’INTELLIGENCE ARTIFICIELLE


Le désir chez l’homme de reproduire les processus de la pensée, de créer une machine
intelligente et même de concevoir un robot est très ancien. Il existe une longue tradition,
remontant à la Haute Antiquité, de mythes concernant la vie artificielle et le développement
d’automates124 conçus pour simuler la vie. Aujourd’hui, la littérature, notamment la
science-fiction, met en garde l’humanité contre d’éventuels dérapages d’une telle
technologie, et fait ressortir l’enjeu du pouvoir en termes de liberté ou d’esclavage. Il est
possible de voir dans les disciplines telles que les mathématiques, la philosophie, la
médecine, la cybernétique et dans les travaux du mathématicien Alan TURING les signes
avant-coureurs de cette nouvelle discipline. Cependant, à partir de 1956, la recherche en
intelligence artificielle prend son essor, notamment avec deux approches bien distinctes,
l’approche numérique et l’approche symbolique. En effet, cette nouvelle discipline ne
devient une possibilité technologique que grâce à l’invention et à l’évolution de l’ordinateur
à partir de 1946.

123
Hervé CHAUDET, Liliane PELLEGRIN, Intelligence artificielle et psychologie cognitive, Dunod, 1998, p
16.
124
Cf. annexe 1, pour une chronologie des automates.

50
Première partie ─ De nouvelles machines à communiquer

En quête d’une machine intelligente


Les automates qui ressemblent soit à des hommes, soit à des animaux, étaient conçus
déjà dans la civilisation égyptienne. On attribuait, selon Jasia REICHARDT,125 à ces objets
certaines capacités quasi miraculeuses. Au XVe siècle avant J.-C., on attribuait à la statue
de Memnon le pouvoir de reproduire le son mélodieux d’une harpe au lever du soleil, et à
émettre un son lugubre au couchant. La tradition antique veut que les dieux communiquent
par l’intermédiaire des statues qui les représentaient. D’autres automates mettent en scène
des animaux. Leur existence est également attestée en Chine et au Japon. Pour fabriquer ces
automates, on utilisait des systèmes de rouages et des engins hydrauliques.

Dans la mythologie grecque, Prométhée aurait créé l’homme et la femme à partir


d’argile. HOMÈRE est le premier à évoquer les automates doués de raison. En effet, dans
L’Iliade, Héphaïstos, dieu forgeron, est accompagné de deux statues en or pur dotées
d’esprit et de sagesse. On peut observer que les êtres artificiels sont construits en or,
minerai précieux lié au pouvoir et à la richesse. Ce sont des esclaves domestiques.
Cependant, il faut noter qu’HOMÈRE insiste sur leur capacité à comprendre, à parler et à
travailler. L’idée du robot en tant que travailleur doué de raison ou intelligent est déjà
imaginé au VIIIe siècle avant notre ère. Il est aussi significatif que ces automates soient
féminins.

« Les servantes s’empressèrent de soutenir leur maître, servantes en or, mais ressemblant à des
vierges vivantes ; elles avaient en leur âme l’intelligence en partage, possédant aussi la voix et la
126
vigueur, et tenant des dieux immortels eux-mêmes leur science du travail. »

Ces légendes révèlent chez l’homme sa volonté d’être un démiurge à l’égal des dieux,
encourant, ainsi, le châtiment qui frappe toute manifestation d’hubris. Il commence par
fabriquer un modèle de lui-même, physique, ensuite doué de pensée.

Dans la poésie latine, apparaît le thème de la femme artificielle. OVIDE127 met en vers
la légende de Pygmalion, roi de Chypre, qui tombe amoureux d’une statue, à qui Aphrodite

125
Jasia REICHARDT, Les Robots arrivent, Chêne, s.l., 1978.
126
HOMÈRE, Iliade, trad. Mario Menier, coll. « Le Livre de Poche », 1972, p.425.
127
OVIDE, Métamorphoses, éd. J.-P. Néraudau, Gallimard, coll. Folio, Paris, 1992, p. 329-330.
51
Les agents intelligents sur Internet : enjeux économiques et sociétaux

va donner la vie, afin d'exaucer les prières du monarque. Le poète insiste sur l’illusion
produite par le réalisme de la statue et sur l’origine divine du don de la vie.

En dehors des automates mécaniques, d’autres légendes se sont tissées autour des êtres
artificiels. Tout d’abord, examinons le Golem. Selon la tradition juive, Elijah de Chelm
(1550) puis Rabbi Löw (1580) auraient créé des golems pour protéger la communauté
juive128. Gustav MEYRINK129 s’en est inspiré pour écrire un roman. Patrice FLICHY,
d’ailleurs, évoque le mythe du Golem130 et le projet de Norbert Wiener de créer un cerveau
artificiel. Ne participent-ils pas du même rêve ?

Les alchimistes aussi cherchaient à créer des êtres artificiels vivants, les homonculi131.
Selon la légende, PARACELSE (1493-1541) en aurait produit un. Il expliquait lors d’une
conférence à l’université de Bâle comment il fallait « l’entretenir et l’élever avec soin de
sorte qu’il puisse se développer et prouver son intelligence. »132 Sans doute PARACELSE
avait-il anticipé avec quelques siècles d’avance les tamagotchi ! Ce qui est significatif, c’est
ce désir de créer des êtres capables de développer leurs capacités cognitives. On peut se
demander si certains de ces mythes sont largement répandus, s’ils sont bien instaurés dans
l’imaginaire collectif ou s’ils ne sont connus que des spécialistes de l’histoire des
techniques ou de la littérature.

Au XVIIe siècle, René DESCARTES (1596-1650) aurait construit un automate nommé


« Ma fille Francine133 » (1649). Au cours d’un voyage en mer, le capitaine du navire
l’aurait découvert, et le croyant œuvre du diable, l’aurait envoyé par-dessus bord. Cette
histoire met en évidence l’aspect transgressif de ce type d’innovation vis-à-vis de la
religion.

128
Le golem était un être fait de glaise. En écrivant le mot émeth (vérité) sur son front, on donnait vie au golem.
En écrivant le mot meth (mort) on le rendait à la poussière.
129
Gustav MEYRINK, Le Golem, Stock, Paris.
130
Patrice FLICHY, L’innovation technique, Editions La Découverte, Paris, 1995, p. 181.
131
Petit être vivant en chair et en os. Ce thème préfigure le mythe de Frankenstein.
132
Jasia REICHARDT, op. cit., p. 30.
133
Sa fille naturelle, Francine, est morte en 1640.

52
Première partie ─ De nouvelles machines à communiquer

Tout au long du XVIIIe siècle, les automates se multiplient. L’invention du Baron


Wolfgang von KEMPELEN (1734-1804) annonce les prouesses de l’ordinateur Deep Blue
d’IBM. Mais son joueur d’échecs cachait un nain à l’intérieur.

Au XXe siècle le terme robot remplace celui d’automate. Si ce dernier est


essentiellement un jouet, le premier désigne une machine qui remplace l’homme dans les
travaux pénibles. Le terme robot qui veut dire servitude en tchèque paraît pour la première
fois en 1917 dans une nouvelle, Opilec134, écrite par le dramaturge tchèque Karel CAPEC
(1880-1938). Il figure ensuite dans le titre de la pièce R.U.R (Rossum's Universal Robots),
publiée en 1920, et représentée en 1921 au Théâtre national de Prague. On découvre
clairement dans cette œuvre qu’un cerveau artificiel peut échapper au contrôle de
l'inventeur. Nous voici donc confronté au mythe de l’apprenti sorcier qui, selon FLICHY135
s’oppose au mythe de Prométhée. Le jour où l'homme inventera un être plus intelligent que
lui, ce sera sa dernière invention selon Kenneth WARWICK136, spécialiste en cybernétique
et robotique à l’Université de Norwich en Angleterre.

La littérature soulève des interrogations certes, mais comporte également beaucoup


d’exagérations. Elle a joué un rôle non négligeable dans le développement de l’intelligence
artificielle selon Jacques PITRAT, professeur en intelligence artificielle.

«Mais s’il est un groupe qui a joué un rôle important pour le développement du concept de
l’intelligence artificielle, c’est bien celui des écrivains de science-fiction. Ils y ont toujours cru,
parfois même un peu trop, à tel point que leurs lecteurs trouvent aujourd’hui toutes nos réalisations
naturelles. »137

La peur du robot, par exemple, est introduite par la pièce HCH et développée par Arthur
CLARKE dans 2001 Odyssée de l'espace. Elle évoque dans l’imaginaire collectif les
dangers posés par la technologie. Ce thème s’intègre dans le cadre du mythe de l’apprenti
sorcier : l’homme crée les moyens de sa propre destruction. En outre, Arthur CLARKE met

134
Ivre en langue tchèque.
135
Patrice FLICHY, L’Imaginaire d’Internet, Editions La Découverte, Paris, 2001.
136
C’est le sens général de son ouvrage sur les dangers de l’IA. Keneth WARWICK, March Of The Machines,
Century, London, 1997.
137
Jacques PITTRAT, « La naissance de l’intelligence artificielle », La Recherche, No. 170, Octobre, 1985, p.
1132.
53
Les agents intelligents sur Internet : enjeux économiques et sociétaux

en lumière deux enjeux de l’intelligence artificielle, le pouvoir caractérisé dans l’absolu par
la dichotomie liberté/esclavage, et la problématique de la mort posée en termes
d’immortalité et d’insécurité.

Isaac ASIMOV138, quant à lui, pour résoudre le problème de l’asservissement de


l’homme par la machine, formule trois lois de la robotique139 : « Un robot ne peut faire du
tort à un être humain. Un robot doit obéir à un être humain, tant que cela ne contredit pas
la loi précédente. Un robot doit se maintenir en vie, tant que cela ne contredit pas les deux
lois précédentes ». Cependant, selon PITRAT140 « malgré cela (les lois), les nouvelles
d’Asimov montrent combien elles peuvent amener des contradictions. »

Pour conclure, nous avons pu constater que le rôle de l'imaginaire consiste à suggérer
tout ce qui reste possible grâce aux progrès scientifiques et technologiques (mythe de
Prométhée), mais aussi à nous mettre en garde contre des éventuels dérapages (mythe de
l’apprenti sorcier.) Jean-Gabriel GANASCIA pose ainsi le problème :

« Des servantes d’Héphaïstos aux robots des romans de la science-fiction contemporaine en


passant par le Golem de Prague… toute une mythologie relate l’existence de substituts à l’activité
de l’intellect humain.

Qu’est-ce donc qui scelle l’originalité de l’intelligence artificielle au point de rendre vigueur et
actualité à ces vieux rêves ? »141

Il est difficile d’affirmer que le facteur imaginaire joue un rôle très important dans le
processus d’appropriation d’un logiciel. L’usager, à la recherche d’une information, ne
pense pas forcément aux implications que représente l’intelligence dans un système
informatique et ne ferait pas obligatoirement de rapprochement entre le programme qu’il a
téléchargé et les enjeux de la machine intelligente. Néanmoins, nous avons intégré ce
facteur dans notre grille d’analyse en lui accordant la place qu’il mérite.

138
Isaac ASIMOV, « Runaround », The Complete Robot, Panther, London, 1984, p. 257- 278.
« We have : One, a robot may not injure a human being, or through inaction, allow a human being to come to
harm.’ ‘Right !’ ‘Two,’ continued Powell, ‘a robot must obey the orders given by human beings except where
such orders would conflict with the First Law.’ ‘Right !’ ‘And three, a robot must protect its own existence so
long as such protection does not conflict with the First or Second Laws » p. 269-270.
139
Traduit par Jacques PITRAT, op. cit. p. 1132.
140
Ibid, p. 1132.
141
Jean-Gabriel GANASCIA, L’âme machine, les enjeux de l’intelligence artificielle, Seuil, Paris, 1990, p. 8.

54
Première partie ─ De nouvelles machines à communiquer

Si la littérature, les légendes et la mythologie ont contribué à créer un monde imaginaire


autour du thème de la machine pensante, les sciences et les mathématiques ont également
joué un rôle déterminant dans la conception et la réalisation partielle de ce projet.

Origines scientifiques de l’IA


Interrogeons brièvement les origines philosophiques et scientifiques de l’intelligence
artificielle pour faire ressortir l’importance épistémologique de cette discipline.
L'intelligence artificielle prend ses sources dans la philosophie grecque du 5e siècle avant
Jésus-Christ142. L'idée a progressivement émergé que l'esprit est constitué par l'opération
d'un système physique. Hubert DREYFUS, qui soutient la thèse selon laquelle une machine
ne peut pas accéder à l’intelligence, fait remonter l'origine de l'IA au dialogue de PLATON,
l'Euthyphron143 (399 av. J-C) où Socrate demande à Euthyphron de lui définir la piété :

« Ce que Socrate demande ici à Euthyphron, c’est ce que nos modernes théoriciens de
l’informatique appelleraient une procédure opératoire, un ensemble de règles qui nous disent avec
précision, étape par étape, comment agir. »144

Pour PLATON, l’homme, grâce aux mathématiques, peut comprendre l’univers. Entre le
monde des Idées, des réalités intelligibles, et le monde sensible, celui des apparences, les
entités mathématiques constituent des intermédiaires. On attribue à ARISTOTE (384-322
avant J.-C..) la mécanisation de la pensée par le biais des syllogismes. En effet, le
syllogisme permet de générer mécaniquement une conclusion vraie si les prémisses sont
vraies. Sa méthode est exposée dans un ouvrage intitulé Organon145.

Plus proche de notre ère, René DESCARTES146 (1596-1650) étudie l'esprit en tant que
système physique. Cependant, le philosophe français établit une distinction entre esprit et
matière. Devant le problème du libre arbitre, DESCARTES opte pour un compromis. Une
partie de l'esprit serait en dehors de la matière, libérée des lois de la physique. Le point de
convergence de l'esprit et de l'âme, la partie immatérielle, serait la glande pinéale. Ainsi

142
Stuart RUSSEL, Peter J., NORVIG, Artificial Intelligence, A Modern Approach, Prentice-Hall International,
Inc, New Jersey, 1995. p. 8.
143
PLATON, « Euthypron », Premiers dialogues, Flammarion, Paris, 1967, pp. 185-211.
144
Hubert L. DREYFUS, Intelligence artificielle, mythes et limites, Flammarion, Paris, 1984, p. 3.
145
ARISTOTE, Organon III, J. Vrin, Paris, 2001.
146
René DESCARTES, Les méditations métaphysiques, Bordas, Paris, 1987, pp. 17-28.
55
Les agents intelligents sur Internet : enjeux économiques et sociétaux

DESCARTES venait-il de fonder la doctrine du dualisme. Celle du matérialisme, par


contre, développe la thèse selon laquelle seule la matière existerait. L'esprit et le cerveau
seraient soumis aux lois de la nature, c’est-à-dire du monde physique.

Dans cette même approche, Wilhelm LEIBNIZ (1646-1716) a cherché à construire une
machine capable de raisonner. Selon ce philosophe et mathématicien, le monde est issu des
calculs de Dieu. Cette idée apparaît déjà d’une manière embryonnaire chez les Grecs, plus
particulièrement chez les Pythagoriciens pour qui l’univers est un ouvrage mathématique.
DESCARTES lui-même avait suggéré que « la pensée était déterminée par les règles du
raisonnement et avait postulé que l'esprit posséderait un système de codage ou de notation
simple et universel, comme les mathématiques. »147 L’idée que l’on puisse modéliser la
pensée comme les mécanismes de la nature, émerge progressivement. Cependant les
progrès de la médecine vont ouvrir la voie à d’autres manières numériques de reproduire la
pensée artificiellement.

Ceux-ci ont également joué un rôle dans la réflexion sur l’esprit. Les progrès concernant
la compréhension anatomique du cerveau ont orienté une approche de l’intelligence
artificielle, le numérique ou neuronal. En 1795 Pierre CABANIS (1757-1808), professeur
d'hygiène et de médecine clinique, déclare que le cerveau est l'organe de la pensée. En
1861, Paul BROCA travaille sur le cas d’un patient souffrant d’aphasie, Leborgne. Pour ce
médecin, les grandes facultés de l’esprit (parole, vision) correspondent aux grandes régions
du cerveau.

RAMON Y CAJAL, en 1911, affirme que le neurone est le composant structurel du


cerveau. Par la suite, la recherche en neurosciences et ses découvertes ont donné naissance
au connexionnisme, c’est-à-dire à la possibilité de créer un modèle informatique,
numérique et non symbolique, du fonctionnement du cerveau humain. La fin des années
quarante a vu le développement de ce modèle. C'est en 1947 que McCULLOCH et PITTS,
deux chercheurs de l'Université de Chicago, proposent un modèle de neurone formel. Cette
recherche a engendré le développement d’une approche particulière de l’intelligence
artificielle à partir de 1960, l’approche numérique.

147
Marie-France BLANQUET, Intelligence artificielle et systèmes d'information, E.S.F., Paris, 1994, p. 27.

56
Première partie ─ De nouvelles machines à communiquer

Les progrès dans le domaine des mathématiques ont également contribué à la naissance
de l’Intelligence artificielle en tant que discipline. La logique d'ARISTOTE était
essentiellement d'ordre philosophique. C'est George BOOLE148 (1815-1864) qui a formulé
les règles et les notations de la logique mathématique dans son livre : The Mathematical
Analysis of Logic : Being an Essay towards a Calculus of Deductive Reasoning (1847).
Gottlob FREGE (1848-1925) est responsable à quelques détails près du calcul de premier
ordre (first-order logic) utilisé en Intelligence artificielle.

An niveau conceptuel, la cybernétique a joué un rôle dans la genèse de ce domaine


149
scientifique . Pendant la Seconde Guerre mondiale, on développe aux États-Unis des
dispositifs d'asservissement (radars, aéronautique, etc.) C'est en 1948 que Norbert WIENER
reprend le terme pour encadrer le processus de rétroaction (feed-back) dans son livre
intitulé Cybernetics: on Control and Communication in the Animal and the Machine. Il
pose alors le problème de la personnalité de l'homme en termes d'information150 : « Quel est
le cœur de l'individualité humaine, quelle barrière sépare une personnalité d’une autre? »
151

Ainsi, Norbert WIENER propose un modèle informationnel de l'homme à partir d'un


constat : les informations au niveau cellulaire permettent le processus du renouveau
permanent du corps. C'est le propre de l'individualité biologique. Or ce même modèle
permet la comparaison avec les autres machines informationnelles.

Jacques PITRAT explique l’origine de la cybernétique en termes de projet


multidisciplinaire. L’accent est mis sur le rôle des mathématiques.

« L'étude de ces mécanismes de commande qui permettent de réguler le fonctionnement d'un


appareil selon les variations de paramètres prédéterminés amena des mathématiciens, des
électriciens et des mécaniciens à travailler ensemble et intéressa, par analogie avec certains
mécanismes de régulation du corps humain, des neurophysiologistes et des psychologues. Le

148
George BOOLE, The Mathematical Analysis of Logic : Being an Essay towards a Calculus of Deductive
Reasoning, Macmillan, London, 1847.
149
Le mot cybernétique provient du mot grec kybernetes qui signifie le barreur d'un navire. Ampère utilise le
mot dans son livre La Cybernétique (1848) dans un sens politique.
150
Norbert Wiener, Cybernetics: on Control and Communication in the animal and the Machine, Wiley, 1948.
151
Philippe BRETON, Une Histoire de L’Informatique, Seuil, 1990, p. 162.
57
Les agents intelligents sur Internet : enjeux économiques et sociétaux

rassemblement de ces disciplines permit de créer la cybernétique dont le but était d'expliquer, à
l'aide des mathématiques, les phénomènes qui mettent en jeu les mécanismes du traitement de
l'information. L'approche de la cybernétique s'est donc traduite par une vue très mathématique du
comportement humain ou animal; la plupart des pionniers de l'intelligence artificielle viendront de
cette discipline152. »

Naissance de l’intelligence artificielle moderne : Dartmouth 1956


La philosophie, l’informatique, la médecine et les mathématiques ont engendré la
réflexion sur ce qui est devenu en 1956 l’intelligence artificielle. Certains spécialistes en
mathématiques, théories de l’information, économie et cybernétique se sont rencontrés au
collège de Dartmouth153 en 1956 et ont inauguré la recherche en IA. C’est à l’occasion de
cette conférence que John McCARTHY invente le terme artificial intelligence pour
remplacer complex information processing et heuristic programming.

Dans cette conférence de 1956, John McCARTHY (professeur de mathématiques,


Dartmouth College), Martin MINSKY (mathématicien, Harvard), Claude SHANNON
(théoricien de l’information, Bell Labs), Allan NEWELL (Rand Corporation) et Herbert
SIMON (économiste, Carnegie Mellon University, Pittsburgh et prix Nobel en 1978) se
donnent comme objectif d'étudier la faisabilité de programmes informatiques intelligents.
Nous soulignons l’aspect multidisciplinaire de cette nouvelle science.

On y a présenté les premiers programmes, notamment le Logical Theorist, (NEWELL et


SIMON), capable de démontrer un des théorèmes du livre de RUSSELL et de
WHITEHEAD, Principa Mathematica, d'une manière originale. Herbert SIMON affirme
avoir inventé un programme capable de penser d'une manière non numérique, c'est-à-dire
symbolique154. Durant la conférence, certaines idées maîtresses de ce qui allait devenir
l’intelligence artificielle ont été énoncées.

«Postulat 1 : chaque aspect de l’apprentissage ou de l’intelligence peut être décrit avec une telle
précision qu’une machine pourrait le simuler

152
Jacques PITRAT, op. cit. p. 1137.
153
La conférence est connue sous le nom de Dartmouth Summer Research project on Artificial Intelligence. Une
présentation du texte d’appel à contribution est donné à cette adresse: [Link]
[Link]/jmc/history/dartmouth/[Link], document consulté le 13 12 2004.
154
Daniel CREVIER, A la recherche de l’intelligence artificielle, Flammarion, coll. « Champs », 1997, p. 67-69.

58
Première partie ─ De nouvelles machines à communiquer

Postulat 2 : l’esprit humain n’a pas accès direct au monde extérieur, mais ne peut qu’agir grâce à
une représentation interne du monde, correspondant à une série de structures symboliques
(hypothèse des systèmes de symboles physiques)

Postulat 3 : la pensée consisterait à étendre les structures de symboles, à les briser, à les détruire, à
les réorganiser et à en créer de nouvelles.

Postulat 4 : l’intelligence est la capacité de manipuler des symboles. Divers supports matériels
peuvent donner naissance à de l’intelligence155. »

A la suite de la conférence, deux écoles distinctes émergent, celle du numérique et celle


du symbolique . Le premier groupe (du MIT) se rassemble autour de Martin MINSKY,
préoccupé au départ par les processus d'apprentissage et la simulation numérique, héritière
de la cybernétique. La seconde école (Carnegie-Mellon), constituée autour de NEWELL et
de SIMON, travaille sur le traitement symbolique. Elle construit en 1957 le General
Problem Solver. Son objectif principal concerne la résolution des problèmes et la nature du
raisonnement156.

Les cybernéticiens du MIT (connexionnistes) s’intéressent, au contraire, aux réseaux de


neurones artificiels utilisés dans la reconnaissance de formes « patterns », c’est-à-dire des
structures comme la voix, l’écriture manuscrite, la vision artificielle, l’analyse et la
classification de données (data mining).

Difficultés rencontrées par la discipline


Si, au cours de son histoire, l’intelligence artificielle a connu certains succès, cette
discipline a également subi des échecs, comme celui de la traduction automatique. Les
machines à traduire, en effet, n’ont pas fait leurs preuves. Pour traduire un texte, il faut que
« la machine comprenne le sens des mots, qu’elle ait accès à la signification interne du
message. »157 En 1966, l’ALPAC (Automatic Language Processing Advisory Committee)
publie un rapport critiquant la recherche en traduction automatique, provoquant ainsi la
suppression des subventions. On s’est également rendu compte que les ordinateurs, malgré

155
Idem, p. 68.
156
Hervé CHAUDET, Liliane PELLEGRIN, [Link]. p. 7.
157
Jean-François DORTIER, « espoirs et réalité de l’intelligence artificielle, Le cerveau et la pensée, Sciences
Humaines, Paris, 1999, p. 73.
59
Les agents intelligents sur Internet : enjeux économiques et sociétaux

la croissance de leur espace mémoire, avaient de grandes difficultés à apprendre, « à tirer


des leçons de l’expérience, et à généraliser à partir de cas particuliers. »158 La traduction
automatique et l’analyse sémantique constituent un défi pour l’intelligence artificielle et
Internet159. Comment éviter une nouvelle Tour de Babel sans des outils appropriés ?

Intelligence artificielle et enjeux pour l’État


L’intelligence artificielle représente un enjeu essentiel pour des raisons militaires et
sécuritaires, car il est important dans un contexte de conflits et de concurrence planétaires
d’intercepter des messages provenant des groupes terroristes, d’espionner des activités
économiques et militaires d’autres pays et de prévenir éventuellement une attaque160. L’État
fédéral américain a tout d’abord financé la recherche en intelligence artificielle pendant la
période de la guerre froide. Il a mis également en place le système de surveillance et de
contrôle ECHELON pour observer, et se renseigner sur, les activités économiques et
commerciales des pays concurrents. La technologie développée a été mise à la disposition
des entreprises américaines, qui ont pu ainsi concevoir d’autres applications à moindre
coût.

Nous ne savons pas exactement comment l’homme réagit face à la création de systèmes
intelligents. La littérature et le cinéma de science-fiction cherchent à stimuler la réflexion
sur les menaces d’une technologie dont la finalité consiste à construire des machines et des
programmes intelligents. Des films comme Terminator, Intelligence Artificielle, La guerre
des étoiles, mettent en garde contre la montée en puissance des robots. D’autres comme
Minority Report soulignent les dangers d’une société sous haute surveillance. Il est
intéressant de savoir si cette production cinématographique détermine la manière dont les
usagers de l’ordinateur et d’Internet perçoivent l’intelligence des machines161.

158
Idem, p. 73.
159
Des usages se développent autour des fonctions de traduction des moteurs en 2004. On peut penser qu’il y a
eu quelques progrès.
160
L’échec des services de renseignement américains à empêcher les attentats du 11 septembre 2001 est notoire.
161
Cf. annexe 1.

60
Première partie ─ De nouvelles machines à communiquer

DEFINITION DE L’INTELLIGENCE ARTIFICIELLE


Que signifie le terme « intelligence artificielle » ? Des définitions existent dans les
ouvrages scientifiques et dans les dictionnaires spécialisés ou non. En quoi un programme
IA diffère-t-il des autres ? Nous tenterons de répondre à ces deux questions.

Examinons d’abord les définitions fournies par les dictionnaires162. Le dictionnaire le


Petit Robert en propose une :

« I.A., partie de l’informatique qui a pour but la simulation de facultés cognitives afin de suppléer
l’être humain pour assurer des fonctions dont on convient, dans un contexte donné, qu’elles
163
requièrent de l’intelligence. »

Ainsi, le système ne produit pas une action intelligente mais se contente de la simuler. Si
la machine peut exécuter une opération qui requière de l’intelligence chez l’humain, on
peut la considérer comme intelligente.

Le dictionnaire encyclopédique de Bernard LAMIZET et Amhed SILEM poursuit la


comparaison en ajoutant la notion de concurrence entre l’homme et la machine. Ces auteurs
voient dans l’intelligence artificielle l’avenir de l’informatique.

«Discipline dont le but est l’étude et la conception de systèmes dont le comportement se rapproche
de ce que nous qualifions d’intelligence chez l’homme. De par l’ambition de ce domaine et le
nombre de domaines en lesquels elle s’est, au fil des années, scindée, il s’agit d’une composante
majeure de l’informatique. De plus, il s’agit sans aucun doute de celle qui dispose des plus vastes
perspectives puisqu’elle se pose en concurrente de l’esprit humain dont nous sommes bien loin
164
d’avoir percé les insondables secrets. »

Raoul SMITH165 introduit la notion d’apprentissage à partir de l’environnement et de


l’expérience et présente le concept de la représentation symbolique des connaissances.

162
Cf. annexe 2.
163
Le Nouveau Petit Robert, 2000.
164
D’après Bernard LAMIZET, et Ahmed SILEM, Dictionnaire encyclopédique des sciences de l’information et
de la communication, Ellipses, Paris, 1997, p.305.
165
Raoul SMITH, Dictionary of ARTIFICIAL INTELLIGENCE, Collins, London, 1990, p. 22.
« Artificial intelligence or AI : the field of computer science that seeks to understand and implement computer
based technology that can stimulate characteristics of human intelligence. A common goal of Artificial
Intelligence work involves developing computer programs capable of learning from experience in order to solve
problems. Other noteworthy pursuits of the field include programs that understand natural language and
61
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Celle-ci permet de faire des inférences, c’est-à-dire de raisonner à partir des connaissances
formalisées produites. De surcroît, il souligne l’épineux problème de la compréhension du
langage naturel ou humain, l’un des enjeux de l’intelligence artificielle du futur. On peut
facilement constater que le terme couvre un vaste champ de recherche.

Les articles et ouvrages de vulgarisation présentent aussi des définitions. Jean-François


DORTIER introduit des notions d’analyse, de résolution de problèmes, de prise de
décisions, d’apprentissage et de perception. L’intelligence artificielle a développé ces
techniques au cours des cinquante dernières années.

« Domaine de l’informatique qui s’attache à construire des programmes intelligents, c'est-à-dire


capables d’analyser un environnement, de résoudre des problèmes, de prendre des décisions,
166
d’apprendre, de percevoir. »

Alain BONNET souligne deux objectifs de l’IA : comprendre la nature de l’intelligence


(but partagé par les sciences cognitives) et simuler l’intelligence :

« L’intelligence artificielle est une discipline visant à comprendre la nature de l’intelligence en


167
construisant des programmes d’ordinateur imitant l’intelligence humaine. »

« L’intelligence artificielle s’intéresse aux processus cognitifs mis en œuvre par l’être humain lors
168
de l’accomplissement de tâches intelligentes. »

Cela ne signifie pas pour autant que l’ordinateur produit réellement une conduite
intelligente. C’est l’observation des comportements humains exigeant un degré
d’intelligence qui permet la modélisation et l’exécution sur la machine.

Hervé CHAUDET et Liliane PELLEGRIN ajoutent la notion de traitement, non pas de


l’information mais des connaissances : « Discipline dont l’objectif est l’étude et la
construction de systèmes artificiels de traitement des connaissances. »169

programs that interpret visual scenes. Methods of symbolically representing knowledge in a way that the
computer can use the symbols to make inferences is a central task of any Artificial Intelligence project…. That
benefits of such a science of intelligence includes guidelines for designing intelligent machines and models of
human or other animal’s intelligent behaviour. A general theory of intelligence remains a goal of AI and the field
therefore often interests other researchers such as cognitive psychologists who are attempting to understand
natural intelligence. »
166
Jean-François DORTIER, op. cit. p. 362.
167
Alain BONNET, L’Intelligence artificielle, Promesses et Réalités, InterEditions, Paris, 1984, p. 17.
168
Idem, p. 17.

62
Première partie ─ De nouvelles machines à communiquer

Jean-Paul HATON et Marie-Christine HATON présentent les points les plus souvent
évoqués dans un ouvrage destiné au grand public. Ces auteurs soulignent deux axes, la
simulation et la reproduction des capacités de l’intelligence humaine par la machine170.

« L’IA peut être envisagée selon deux points de vie complémentaires :

L’un concerne l’étude des mécanismes de l’intelligence, l’ordinateur étant utilisé comme moyen de
simulation pour tester un modèle ou une théorie ; ce point de vue relève d’une démarche cognitive ;

L’autre, plus pragmatique, concerne les efforts faits pour doter un ordinateur de capacités
habituellement attribuées à l’intelligence humaine : acquisition de connaissances, perception
(vision, audition), raisonnement, prise de décision, etc.

C’est ce second point de vue qui est le plus couramment rencontré. Il consiste à émuler par un
programme d’ordinateur des comportements intelligents sans pour autant reproduire le
fonctionnement correspondant de l’être humain.

Les deux approches précédentes sont en fait largement complémentaires dans la mesure où une
meilleure connaissance des mécanismes humains permet d’améliorer les performances des
systèmes informatiques. »

Jacques FERBER, professeur d’informatique et spécialiste en intelligence artificielle


distribuée, souligne la comparaison entre la performance de l’intelligence humaine et celle
de la machine. Il ne s’agit pas d’une forme d’intelligence générale mais d’une forme
multifactorielle.

« Le terme “intelligence artificielle” a été utilisé pour désigner un projet de recherche consistant à
concevoir une machine intelligente, c’est-à-dire capable de réussir aussi bien qu’un être humain
171
dans des tâches jugées complexes. »

La méthode de l’IA consiste à élucider certaines activités du cerveau pour les reproduire
sur ordinateur. Comprendre, communiquer, résoudre un problème, élaborer une stratégie et
prendre une décision font partie de cet ensemble. L'intelligence artificielle s’inspire de
l’étude de ces conduites chez l'homme et propose une modélisation informatique. Elle va de
pair avec le développement des sciences cognitives.

169
Hervé. CHAUDET, Liliane PELLEGRIN, op. cit. p. 9.
170
Jean-Paul. HATON et Marie-Christine HATON, L'Intelligence artificielle, P.U.F. Paris, pp. 3-4.
171
Jacques FERBER, Les systèmes multi-agents,vers une intelligence collective, InterEditions, Paris, 1995, p. 5.
63
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Quelle est la spécificité de l’intelligence artificielle par rapport à la programmation


classique? Son but est de comprendre la nature de l’intelligence et de construire des
programmes simulant les conduites associées à cette qualité.

Au départ l’informaticien cherche à résoudre un problème. Le programme doit donc se


servir d’un ensemble de mécanismes afin de trouver une méthode susceptible d’apporter
une solution. L’intelligence artificielle diffère alors essentiellement de la programmation
classique. Pour celle-ci, c’est l’humain qui construit le raisonnement à appliquer et le
programme s’exécute jusqu’aux résultats prévisibles. Autrement dit, la programmation est
déterministe. Au contraire, dans une application en IA, « c’est le programme qui choisit le
chemin à suivre. »172 Celui-ci n’est pas déterminé au préalable.

Ainsi, la méthode de recherche en intelligence artificielle consiste à partir d’une activité


humaine jugée intelligente (ou tâche intelligente), à émettre des hypothèses sur les
processus mis en œuvre lors de l’accomplissement de la tâche considérée, à les incorporer
dans un programme, à observer le comportement et les résultats produits par celui-ci, à
affiner la théorie du départ et à modifier le programme.173

Tout d’abord la caractéristique principale d’un programme est l’emploi d’une


représentation symbolique de l’aspect du monde concerné. L’intelligence artificielle utilise
des langages de programmation de haut niveau ou langages déclaratifs, qui permettent de
manipuler des symboles structurant nos connaissances. Cette représentation établit une
relation entre le monde réel dans lequel s’inscrit le problème à traiter et le système
symbolique que l’on utilise pour le résoudre, et qui n’est pas forcément numérique.
L’intelligence artificielle sépare les connaissances à traiter par le programme et les modes
de raisonnement ou d’inférence (déductive ou inductive) susceptibles de manipuler ces
connaissances et d’apporter une solution au problème posé.

En second lieu, l’utilisation d’heuristiques est une autre caractéristique fondamentale.


On peut définir celles-ci comme « une méthode informelle sans garantie de succès ». « Une
démarche heuristique consiste, face à un problème, à essayer un chemin en gardant la

172
Alain Bonnet, op. cit. p. 17.
173
D’après Alain Bonnet, op. cit., p. 18.

64
Première partie ─ De nouvelles machines à communiquer

possibilité d’en essayer d’autres si celui qui paraissait prometteur n’a pas conduit
rapidement à une solution. »174

Le programme est confronté à un certain nombre de difficultés. Il doit être capable de


fournir une solution au problème posé malgré l’absence de l’ensemble de données relatives
au problème. Il doit également pouvoir faire face à des entrées contradictoires ou
conflictuelles. Il doit être capable d’apprendre. Alain BONNET définit cet apprentissage en
informatique par « la capacité d’améliorer ses performances en tenant comptes des erreurs
passées. »175 Ce processus implique la capacité de généraliser, de découvrir des analogies,
de choisir des omissions, c'est-à-dire d’oublier des détails inutiles.

Les principales caractéristiques présentées ci-dessus montrent la différence entre la


programmation classique, procédurale et déterministe, et les méthodes utilisées en
intelligence artificielle. Mais à quoi sert l’IA ? Examinons les domaines d’application de la
recherche en intelligence artificielle.

DOMAINES DE L’INTELLIGENCE ARTIFICIELLE.


La recherche en IA recouvre un nombre important de domaines. On peut énumérer les
domaines suivants : les jeux (échecs, bridge), la démonstration de théorèmes, la résolution
de problèmes généraux, la perception (vision, parole), la compréhension du langage naturel,
la résolution de problèmes exigeant une forme d’expertise, la conception de problèmes en
ingénierie. L’e-learning ou enseignement assisté par ordinateur se développe également.

Examinons quelques exemples particulièrement utiles pour le développement d’agents


intelligents. Il s’agit des systèmes d’apprentissage, de la compréhension du langage naturel
et des systèmes experts. L’étude de l’apprentissage d’un système s’intéresse à toute
technique qui permet l’amélioration de ses performances en cours de fonctionnement. Pour
y parvenir, le système fait appel à quatre catégories de connaissances dont celles du
domaine, les connaissances stratégiques, causales et enfin celles construites par cas ou
exemples. Chaque catégorie possède un module qui l’engendre. L’apprentissage du système
émerge de l’interaction entre ces divers modules.

174
Alain Bonnet, op. cit., p. 20.
175
Alain Bonnet, op. cit., p. 24.
65
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Ce type de recherche permet de concevoir des agents intelligents capables d’apprendre à


partir des actions de l’usager, de connaître ses pratiques, de lui proposer des solutions à des
problèmes qu’il rencontre ou d’automatiser des routines que celui-ci adopte régulièrement.
Ce genre d’apprentissage s’intègre dans les interfaces des systèmes d’exploitation ou dans
les interfaces des services Internet. A titre d’exemple, un agent du type wizard ou assistant
propose à l’internaute de programmer « par défaut176 » une routine fréquemment observée.

La compréhension du langage naturel désigne la capacité d’un système informatique à


comprendre le langage humain. Cette activité nécessite des bases de connaissances, un
analyseur syntaxique et un analyseur pragmatique.

L’un des enjeux des agents intelligents et plus généralement des outils de recherche
consiste à pouvoir répondre à une requête en langage naturel. Cependant, beaucoup
d’obstacles restent à surmonter. Les systèmes informatiques de compréhension de langage
naturel sont confrontés au frame problem ou problème du cadre de référence177. Un second
obstacle concerne notre connaissance du monde quotidien, c’est-à-dire le bon sens
(common sense knowledge). En effet, notre expérience du monde reste complexe et n’est
pas facile à représenter.

La compréhension du langage naturel par la machine semble être la condition sine qua
non de la traduction automatique. Pour réussir cet enjeu important sur le plan économique
et stratégique, le programme devrait pouvoir surmonter les facteurs sémantiques,
pragmatiques et contextuels qui posent tant de problèmes aujourd’hui encore.

Les systèmes experts ont aussi joué un rôle important dans l’évolution de l’intelligence
artificielle. En effet, cette branche a connu un certain succès à partir des années quatre-
vingts. Ces systèmes ont pour but de modéliser l’expertise humaine dans un domaine
spécifique. Ils comportent deux modules dont une base de connaissances et un moteur
d’inférence. Ce sont, selon FERBER, « des programmes informatiques capables de

176
Automatiquement si l’usager n’opère pas un choix explicite.
177
Frame problem : problème de cadre de référence identifié par John McCARTHY et Patrick J. HAYES
(1969). Ils insistent sur la nécessité de spécifier toutes les modalités d’une action en tenant compte de toutes les
conséquences de celle-ci. Ils mettent l’accent sur la difficulté de représenter le monde réel dans sa totalité car une
telle entreprise entraînerait rapidement une explosion combinatoire. En effet, plus une situation se complique,
plus la charge de calcul augmente. Le monde n’évolue pas spontanément. Toute modification qui n’est pas
mentionnée implicitement est considérée comme n’ayant pas eu lieu.

66
Première partie ─ De nouvelles machines à communiquer

remplacer l’être humain dans ses tâches réputées les plus complexes et qui réclament de
l’expérience, du savoir-faire et une certaine forme de raisonnement. »178

APPLICATION PRATIQUE DE L’INTELLIGENCE ARTIFICIELLE


Les techniques et méthodes de l’intelligence artificielle s’emploient dans une multitude
de domaines. En voici quelques applications pratiques : systèmes experts en médecine, dans
le secteur bancaire et financier ; systèmes de gestion et de contrôle des réseaux
informatiques ; systèmes de réservation de billets ; systèmes utilisés dans la gestion du
transport aérien ; systèmes de datamining et de datawarehousing ; agents logiciels, moteurs
de recherche, logiciels Internet (pour l’achat en-ligne). Les systèmes de défense, également,
ont très vite intégré la technologie IA. Au demeurant, les budgets militaires en ont souvent
financé la recherche.

Cette discipline a permis le développement de méthodes et d’algorithmes capables de


faciliter des opérations nécessaires à la maintenance des réseaux et à la recherche
documentaire parmi beaucoup d’autres activités. Nous passerons en revue les applications
qui s’avèrent indispensables pour récupérer des informations sur Internet, gérer les flux
vers les sites commerciaux, développer l’e-commerce et mettre en place une bibliothèque
universelle.

178
Jacques FERBER, op. cit. p. 6.
67
Les agents intelligents sur Internet : enjeux économiques et sociétaux

1.3. AGENTS INTELLIGENTS SUR INTERNET


La presse informatique s’est intéressée aux agents intelligents en 1997. Le terme
désignait alors des programmes d’interface, de recherche documentaire et de profilage des
internautes. On distinguait les technologies PUSH et PULL. On y associait des notions de
coopération, de collaboration, de mobilité.

Or, on constate en 2004 que les médias portent surtout leur attention sur les moteurs de
recherche. Nous avons énoncé l’hypothèse selon laquelle les moteurs auraient intégré la
technologie associée aux agents intelligents et cette intégration expliquerait en grande
partie leur succès auprès du public. En effet, les agents logiciels n’ont pas connu le succès
escompté. D’après nos enquêtes, peu de personnes connaissent le terme. Seuls les moteurs
de recherche sont utilisés par le grand public. Pourtant, la technologie agent s’est
développée dans de nombreux domaines. Ce chapitre a pour ambition de définir le concept
en examinant les diverses définitions et d’en décrire les applications.

COMMENT DEFINIR UN AGENT INTELLIGENT ?


Le terme « agent intelligent » désigne un certain nombre d’applications fonctionnant à la
fois dans un environnement Internet et sur d’autres environnements comme les systèmes
d’exploitation. La définition du terme reste très générale. Elle se réfère à une partie d’un
système informatique (programme, code, crawler, spider) ou au système complexe lui-
même (métamoteur en-ligne, comparateur de prix, logiciel). Si on recherche des définitions
aujourd’hui sur Internet, on peut se servir de Google179. Le moteur nous présente une liste
dont les entrées mettent l’accent sur la récupération de documents180. C’est cette fonction
qui semble être la plus courante. Cependant le terme couvre un plus grand champ
d’applications.

179
Le code « define :intelligent agent » retourne une liste de définitions à partir de dictionnaires spécialisés en-
ligne.
180
Cf. annexe 2.

68
Première partie ─ De nouvelles machines à communiquer

Jeffrey M. BRADSHAW dresse l’historique du terme dans son article, « An Introduction


to Software agents181 ». L’idée de construire un programme « orienté agent » vient de John
McCARTHY au milieu des années cinquante, mais ce serait Oliver G. SELFRIDGE qui
aurait créé le terme182.

La recherche s’est faite essentiellement aux Etats-Unis et en Grande-Bretagne. Don


GILBERT, travaillant pour IBM, décrit l’agent intelligent en fonction d’un espace à trois
dimensions : agence, intelligence, mobilité. La première couvre le degré d’autonomie et
d’autorité et se mesure par l’interaction entre l’agent et les autres entités du système. La
seconde définit le degré de raisonnement et de comportement appris et acquis, la capacité
de l’agent à s’adapter à l’usager, et à exécuter les tâches déléguées par ce dernier. La
troisième concerne la mobilité de l’agent à travers un ordinateur ou un réseau183. Hyacinth
C. NWANA184, de British Telecom, propose en 1996 une typologie permettant de classer
les agents en termes de mobilité, de présence d’un modèle de raisonnement symbolique
(délibératif ou réactif), d’attributs comme l’autonomie, la coopération et l’apprentissage.

Stan FRANKLIN et Art GRAESSER185 proposent en 1996 une taxonomie d’agent. Les
agents autonomes comportent les agents biologiques, les robots et un troisième groupe
consistant en agents logiciels et en agents de la vie artificielle. Les agents logiciels eux-
mêmes se subdivisent en agents spécialisés dans une tâche, en agents de divertissement et
en virus.

181
Jeffrey M. BRADSHAW, An Introduction to Software agents, [Link]
[Link], livre consulté le 17 décembre 2003.
182
Idem, p. 4.
183
Don Gilbert et al. IBM intelligent agent strategy, IBM, 1995.
184
Hyacinth NWANA , “Software Agents : An Overview”, Knowledge Engineering Review, Vol.11, N° 3, p. 6-
8, Sept. 1996.
185
Stan FRANKLIN et Art GRAESSER, “Is it an Agent, or just a Program?: A Taxonomy for Autonomous
Agents” , Proceedings of the third international workshop on agent theories, architectures, and languages,
New York, Springer-Verlag, 1996, source web:
[Link]
/[Link]+%22IBM+intelligent+agent+strategy%22&hl=fr
69
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Définition

L'association française de normalisation (AFNOR) définit un agent intelligent ainsi:

« Objet utilisant les techniques de l'intelligence artificielle : il adapte son comportement à son
environnement et en mémorisant ses expériences, se comporte comme un sous-système capable
d'apprentissage : il enrichit le système qui l'utilise en ajoutant, au cours du temps, des fonctions
186
automatiques de traitement, de contrôle, de mémorisation ou de transfert d'informations. »

Selon cette définition, souvent citée dans la littérature spécialisée, la dénomination


« agent intelligent » correspond à la présence de l’intelligence artificielle dans un
programme. Le terme désigne souvent un logiciel187. Cependant, certains agents
prétendument intelligents font preuve de très peu d’intelligence dans leurs programmes. Le
choix de l’adjectif « intelligent » comporte souvent des considérations liées au marketing
plutôt qu’à une authentique capacité.

En réalité, le terme agent est une métaphore. Ce mot vient du verbe latin agere qui
signifie conduire ou agir pour quelqu’un d’autre188 par délégation. Le programme, donc,
agit comme un humain à qui on a confié une tâche ou une mission.

Nous nous trouvons confrontés à la multiplicité de définitions révélant la complexité du


domaine. Par exemple, Patrick BALDIT, dans un rapport commandé par le CEA en 1997,
parle de l’absence d’une définition univoque : « Il n’existe pas de définition univoque et
reconnue des agents intelligents, dans le monde relativement fermé des chercheurs en
intelligence artificielle. »189

Carlo REVELLI, fondateur de la firme de veille Cybion avec Joël de ROSNAY,


confirme le problème posé ici : « La distinction entre agent intelligent et simple logiciel
demeure très floue. »190

Béatrice FOENIX-RIOU, consultante et auteur d’un ouvrage destiné aux veilleurs


professionnels, assimile les agents à une fonction : « Les agents intelligents sont des

186
AFNOR, Vocabulaire de la documentation, 2e édition, 1987.
187
Notamment les métamoteurs en-ligne ou hors ligne sont présentés comme agents intelligents.
188
Jeffrey M. BRADSHAW, op. cit. p.6.
189
Patrick BALDIT, Les agents Intelligents : Qui sont-ils ? Que font-ils ? Où nous mènent-ils?, Direction de
l’Information scientifique et technique, CEA/Saclay, Rapport CEA-R-5777, Gif-sur-Yvette, 1997, p. 5.
190
Carlo REVELLI, Intelligence Stratégique sur Internet, Dunod, Paris, 1998, p. 88.

70
Première partie ─ De nouvelles machines à communiquer

logiciels capables de collecter l’information et de la traiter en fonction de critères de


valeur ou de pertinence. »191

Selon cet auteur, les outils disponibles sur Internet sont très éloignés des logiciels promis
par les partisans de l’intelligence artificielle, bien que « certains intègrent des technologies
issues de l’intelligence artificielle »192. Le mot « agent intelligent » est souvent employé car
le terme est vendeur. Pour le moment, ce type de logiciel semble encore au stade de projet.
Béatrice FOENIX-RIOU préfère le terme d’agent « presque intelligent » qui lui semble
plus proche de la réalité. Examinons, toutefois, à travers les travaux qui lui sont consacrés,
les tentatives de définition.

Henry SAMIER, enseignant-chercheur à ISTIA (Université d’Angers) et Victor


SANDOVAL, enseignant-chercheur à l’École centrale de Paris, définissent un agent
193
comme « une entité autorisée à agir à la place d’une personne et en son nom. » Ils
attribuent l’intelligence d’un agent « à l’intégration des mécanismes d’apprentissage, de
raisonnement et de planification dans les algorithmes de programmation. » 194

Ils poursuivent leur tentative de définition :

« un système informatique intégré à un environnement complexe et dynamique. Il analyse et agit en


fonction de l’environnement et des objets à atteindre. Il modifie son comportement en fonction de
195
l’environnement et est capable d’anticiper, autrement dit est proactif. »

Gil DERUDET a proposé une définition en 1997. Pour ce journaliste, « un agent est un
logiciel ou tout code possédant de façon plus ou moins prononcée les trois attributs
suivants : l’autonomie, la collaboration et l’apprentissage196 ».

Il n’est donc pas facile de fournir une définition simple comprenant toute la diversité
d’objets décrits. Pour les spécialistes de la veille, le terme désigne les logiciels agents du

191
Béatrice FOENIX-RIOUX, Recherche et veille sur le Web visible et invisible, Éditions TEC & DOC, Paris,
2001, p. 136.
192
Idem, p. 136.
193
Hervé SAMIER et Victor SANDOVAL, op. cit., p. 58.
194
Idem, p 58.
195
Ibid, p. 58.
196
Gilles, DERUDET, "la révolution des agents intelligents", Internet Professionnel, N° 9, mai 1997, p. 74.
71
Les agents intelligents sur Internet : enjeux économiques et sociétaux

type métamoteur ayant la capacité d’analyser les documents et d’organiser les résultats des
requêtes. Si l’on étudie, à un niveau plus abstrait, les caractéristiques des agents à partir de
la littérature spécialisée197, on peut s’approcher d’une définition plus compréhensive.

Caractéristiques d’un agent intelligent


Si on examine les termes qui caractérisent un agent intelligent, on remarque notamment
les suivants : autonomie, apprentissage, coopération, délégation, proactivité, raisonnement,
réactivité, communication et mobilité198.

Le degré d’autonomie d’un agent intelligent varie en fonction de sa capacité à agir sans
l’intervention humaine une fois qu’il a été paramétré. L’apprentissage désigne le processus
de mémorisation et d’adaptation à partir de l’expérience. L’agent enregistre ses expériences
et modifie son comportement en fonction de celles-ci. Sa capacité à coopérer lui permet de
collaborer avec d’autres agents, notamment les moteurs de recherches et d’autres bases de
données. La délégation implique qu’il est autorisé à agir et peut prendre des décisions après
une négociation. La proactivité s’inscrit dans un processus de prises d’initiatives : l’agent
peut anticiper des actions. Le raisonnement implique qu’il possède un moteur d’inférence.
La réactivité lui permet de modifier ses réactions en fonction de son environnement
(intranet, réseau local, Internet, extranet, ordinateur). La communication désigne sa
possibilité de dialoguer avec l’utilisateur et avec d’autres agents (métamoteurs, serveurs).
La mobilité signifie qu’il se déplace dans son environnement.

Cette classification des caractéristiques d’un agent met en évidence l’ambition du


projet : construire des programmes capables d’une action autonome et de remplacer les
humains dans un certain nombre de tâches. D’autres critères moins abstraits peuvent
faciliter une classification plus simple et plus empirique.

197
Hyacinth NWANA, “Software Agents : An Overview”, Knowledge Engineering Review, Vol.11, N° 3, p. 1-
40, Sept. 1996.
198
Alper CAGLAYAN, Collin HARRISON, Agent Sourcebook, A Complete Guide to Desktop, Internet, and
Intranet agents, Wiley Computer Publishing, New York, 1997.

72
Première partie ─ De nouvelles machines à communiquer

Classification des agents intelligents


Il existe d’autres manières de classer les agents. On peut les regrouper en fonction de
l’environnement, de la dichotomie PUSH/PULL, ou CLIENT/SERVEUR, ou par rapport à
leurs tâches. Celles-ci sont définies par leurs concepteurs.

L’environnement désigne la plate-forme sur laquelle les agents sont installés. On


énumère ainsi trois grandes classes d’agents intelligents199: ceux du PC, d’Internet et les
agents d’intranet. Les agents du PC (desktop agents) s’imbriquent dans le système
d’exploitation de l’ordinateur (Windows, Mac OS, etc.). Ils sont connus sous le nom
d’assistants. Leur fonction est d’aider l’usager dans l’exécution d’une tâche automatisée
comme installer un nouveau logiciel ou un nouveau périphérique en plug and play. Les
agents d’intranet (Intranet agents) permettent de récupérer des ressources sur les serveurs
de l’entreprise. Les agents d’Internet (Internet agents) aident l’utilisateur à rechercher des
documents sur Internet. Les moteurs et métamoteurs font partie de cette catégorie.

Une seconde distinction se fait entre les agents du type PULL et ceux du type PUSH. Le
verbe anglais pull signifie tirer vers soi, tandis que le mot push veut dire envoyer vers
quelqu’un d’autre. L’utilisateur initie la requête en paramétrant un agent à partir de mots-
clés ou d’expressions plus complexes. Il délègue la tâche à un agent PULL comme un
moteur ou métamoteur. Cependant, l’usager interagit avec le programme en transformant la
requête en fonction des résultats retournés.

Au contraire, avec la technologie PUSH, l’utilisateur est passif. Les logiciels de type
PUSH permettent d’accéder à des chaînes d’information thématiques ou d’actualité, comme
les chaînes de télévision ou de journaux. Les informations sont envoyées régulièrement aux
abonnés en fonction de leur profil ou de leurs centres d’intérêts définis au préalable ou
appris grâce à la vigilance du programme informatique. PointCast, Marimba et BlackWeb
constituent des exemples de logiciels de PUSH. Le moteur Google (news alerts) et certains
métamoteurs comme Copernic ont intégré ce type d’activité.

Les agents de diffusion sélective font partie de la technologie PUSH. Leur but est de
trouver pour l'utilisateur les informations susceptibles de l’intéresser sans qu’il en ait fait la

199
Idem, p. 9-14.
73
Les agents intelligents sur Internet : enjeux économiques et sociétaux

demande. Le système fonctionne de la manière suivante. L'utilisateur souscrit un contrat


avec un fournisseur d'informations qui lui envoie un choix de documents en fonction de ses
goûts et intérêts. Un agent intelligent choisit automatiquement les documents et établit une
liaison entre l'agent installé sur l’ordinateur de l'utilisateur et celui du serveur du
fournisseur. Les journaux américains comme The New York Times offrent ce type de
service.

Les agents d'alerte et de veille surveillent une source d'information ou un thème pour
prévenir l'utilisateur en fonction d'une requête prédéfinie.200Ils envoient des messages par
courrier électronique lors d’un changement de contenu. Parmi ce type d’agent, nous
rencontrons Url-Minder et NetMindHighlighter. Nous avons constaté que les moteurs de
recherche intègrent aussi ces fonctions. D’autres agents PULL surveillent les archives des
forums de discussion et les listes de diffusion.

La technologie PUSH apparaît comme une solution aux problèmes posés par la
croissance exponentielle de documents sur le Web. Il est extrêmement difficile et coûteux
(en temps) de trouver des informations recherchées uniquement par le biais du PULL. Le
PUSH, par contre, permet à l’internaute de recevoir des documents préparés pour être
téléchargés :

« La solution a été imaginée par PointCast. Il s’agit de rassembler l’information que les utilisateurs
recherchent, d’y mêler de la publicité et des annonces et de leur envoyer pendant qu’ils dorment !…
201
Avec le push, c’est l’information qui trouve l’utilisateur. »

Cependant, le PUSH connaît des inconvénients : la quantité d’informations envoyées et


enregistrées sur le disque dur peut s’avérer considérable et devenir très rapidement difficile
à gérer, d’où la nécessité de moteurs de recherche interne performants.

La dichotomie client/serveur permet également une classification. Certains agents


peuvent être téléchargés et installés sur le disque dur de l’usager. D’autres, au contraire,
opèrent à partir du serveur du propriétaire de l’agent, et fonctionnent en mode client-
serveur. L’internaute se connecte et utilise les services de la technologie mise à sa
disposition gratuitement. L’avantage des agents du côté client réside dans leur paramétrage

200
Carlo REVELLI, op. cit., pp. 104-105.
201
C. BONNET, J.F. MACARY, Technologies PUSH, Eyrolles, Paris, 1998, p.36.

74
Première partie ─ De nouvelles machines à communiquer

plus poussé par rapport aux agents localisés sur un serveur à distance. Notons que si les
premiers sont téléchargeables gratuitement dans un premier temps202, les derniers restent
toujours disponibles et gratuits. Le financement du site et du développement se fait par le
biais d’autres types de modèles économiques. Nous avons observé que les moteurs de
recherche proposent un dispositif du type agent client (sur le disque dur) pour étendre
progressivement leur action vers l’usager. Ainsi on combine les avantages des deux types
d’interactions : sur le serveur et chez le client.

Le dernier mode de classement décrit les usages prévus par les éditeurs de logiciels : les
tâches accomplies par l’agent. Passons en revue ces divers types de programme en précisant
que cette liste n’est pas exhaustive.

Un agent de filtrage est conçu pour examiner des courriers reçus et détruire les e-mails
non désirés sur la messagerie, éliminer les informations non pertinentes d’une requête,
chercher et préparer des informations à partir de diverses sources. (Quelques exemples :
NewsHound, ZDNet personal View ou NewsPage Direct.)

Un agent aspirateur (retrieval agent) télécharge un site entier sur le disque dur, facilitant
ainsi l’analyse de son contenu hors-ligne. Les agents avertisseurs ou d’alerte hors-ligne
(notifiers) préviennent l’usager lorsqu’un site change, lorsqu’une information importante
arrive ou qu’un événement important se produit. Les agents de recherche (search agents)
identifient des informations pertinentes sur Internet en relation avec un ensemble de
moteurs et en fonction des préférences des usagers. Ils peuvent intégrer un module
d’apprentissage. Ce que l’on nomme ici agent fait l’objet d’un ensemble de fonctionnalités
introduites dans les progiciels d’agents intelligents du type métamoteur. Nous rencontrons
également des agents livreurs d’informations hors-ligne (delivery agents) qui, comme leur
nom l’indique, envoient des informations personnalisées aux usagers sur leur disque dur. La
connexion n’est pas établie pendant la lecture ou la consultation des documents reçus, ce
qui permettait auparavant de diminuer la consommation de bande passante. Aujourd’hui, en
2004, ce problème est moins important grâce au haut débit et aux abonnements illimités.

202
L’éditeur offre une version gratuite ou limitée dans le temps, trente jours. Après cette période, il faut acheter
le produit ou l’abandonner. Les hackers, par exemple, utilisent des cracks pour faire fonctionner le programme
illégalement (déplomber).
75
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Les agents d’achat ou comparateurs de prix (shopping agents) facilitent la recherche des
meilleurs prix pour un produit donné. Ils ne sont pas forcément appréciés par les
propriétaires des sites Web commerçants et leur entrée dans un site peut être interdite. La
concurrence pure et parfaite sur Internet ne fait pas l’unanimité. Ce type de technologie
intègre progressivement les sites des moteurs de recherche203 ou des portails.

Les agents de bavardage (chatterbots) s’avèrent capables de s’entretenir avec un usager.


Le premier de ce type, Eliza204, se comportait comme une psychanalyste qui posait des
questions à son patient pour le faire parler. Depuis, on conçoit les chatterbots pour
introduire une forme de dialogue et d’interactivité sur certains sites Web commerciaux. Le
bot peut répondre à des questions posées par l’internaute sur un produit ou un service ou
envoyer des fiches techniques en fonction des mots-clés repérés dans l’énoncé du visiteur.

Les agents de petites annonces (classified agents) examinent les offres de produit dans
des bases de données en fonction du sujet ou du domaine spécifié par l’internaute. Ils
envoient les résultats par e-mail. L’agent pense-bête (announcement agent) a pour mission
de rappeler à l’usager les événements ou les rendez-vous importants. Ce type d’agent peut
s’installer en-ligne ou sur le disque dur d’un PC.

D’autres types existent, certains spécialisés dans les livres (book agents) et qui cherchent
les nouveautés dans le monde de la publication en fonction des préférences des usagers. Les

203
Froogle du moteur Google ou Kelkoo acheté par Yahoo.
204
Programme conçu par Joseph WEISENBAUM, Eliza est le nom du personnage de Pygmalion de George
Bernard Shaw. En effet, ce personnage devait, dans cette pièce de théâtre, apprendre à améliorer son langage. En
fonction du domaine de la conversation, un module peut être développé, séparé du module qui génère la
conversation. WEISENBAUM appelait les modules scripts. L’un de ces scripts simulait une psychothérapie..
Source : Daniel Crevier, op. cit. p.162.
Site : [Link]
ELIZA - a friend you could never have before.
You: I feel depressed.
Eliza: Do you often feel depressed?
You: Very often.
Eliza: Please go on.
You: It's because of the weather.
Eliza: Do any other reasons not come to mind?
You: I hate winter.
Eliza: Can you elaborate on that?

76
Première partie ─ De nouvelles machines à communiquer

agents de suivi du monde des affaires (business information monitoring agents) filtrent
l’actualité économique, les publications et rapports mis sur Internet par les entreprises. Les
agents de services financiers personnalisés (financial service agents)205 apportent des
informations financières en fonction du portefeuille personnel de l’usager. Enfin, les agents
de recrutement (job agents) cherchent les profils d’éventuels candidats pour un emploi en
fonction des CV mis en-ligne.206

Un schéma d’usage émerge à partir de toutes ces descriptions : l’usager délègue une
tâche spécifique et reçoit les résultats de l’opération automatiquement sans être obligé d’en
renouveler la demande. Avec le développement de l’internet marchand et la croissance du
nombre d’usagers207, d’autres types d’agents ont été développé, notamment dans le
domaine de la sécurité. Il s’agit de programmes conçus pour protéger l’ordinateur ou le
serveur contre des attaques et des intrusions.

On constate que la plupart de ces agents ont été inventés en fonction d’une demande
d’ordre économique. Ils correspondent aux besoins des consommateurs ou des entreprises
anticipés par les développeurs et les éditeurs de logiciels. Certains sont offerts, et le coût du
développement est supporté par des modes de financement tels que le partenariat avec des
sites commerciaux, la publicité, mais rarement par abonnement pour l’instant. Ces agents
peuvent facilement s’intégrer dans des systèmes globaux de recherche d’information
comme les portails. D’ailleurs les usagers informaticiens ont la possibilité de construire
leurs propres agents grâce aux api208 (application programming interface) offerts par ces
derniers.

Comment donc définir simplement un agent intelligent ? C’est un programme qui


exécute une tâche à l’initiative de l’usager. Il est autonome et il peut automatiser ses
missions. Il agit par délégation209.

205
Ce type d’agent fait partie de l’offre de Yahoo et s’intègre facilement dans la barre d’outil de ce portail.
206
Source : Alper CAGLAYAN, Collin HARRISON, op. cit., p. 57-83.
207
Selon Mediamétrie, vingt-quatre millions d’internautes et près de la moitié de foyers sont connectés au haut
débit, en mars 2004, en France. Source :
[Link] consulté le 07 09 2004.
208
Langage qui permet de développer des interfaces et des programmes exploitant les ressources d’un moteur de
recherche.
209
Cet aspect soulève des problèmes d’ordre juridique sur le partage des responsabilités en cas d’erreur.
77
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Le terme désigne le plus souvent un programme de recherche d’information, si on


examine les définitions des dictionnaires en-ligne. Voici les quatre premières données par
Google (code define :intelligent agent) confirmant notre propos :

« Also called an Internet agent. Most commonly found on Web sites, this mini-program is designed
to retrieve specific information automatically. Agents rely on cookies to keep track of the user's
preferences, store bookmarks and deliver news through push technology. Intelligent agents can't
perform their duties if the user's browser rejects cookies, and some Web pages (especially online
210
ordering sites) will not function properly without the agent's information. »

« Software tools that help you find web sites. The idea is that you provide it information about what
you are interested in and the agent finds the information more "intelligently" that a search engine
211
would. »

« A program that automates the task of finding information on the internet, perhaps delivering a list
212
of news stories on a particular topic on the desktop every morning .»

« An automated network information gathering tool, which cruises the Internet, searching indexes
and databases for the names of documents on subjects specified by the user. Sometimes referred to
213
as a Knowbot. »

Le rôle d’un agent, selon ces définitions, consiste soit à chercher des informations pour
un internaute soit à enregistrer ses pratiques de navigation. Nous examinerons dans notre
troisième partie les conséquences de ce constat.

APPLICATIONS DES AGENTS INTELLIGENTS AU PROFILING


Si notre objet d’étude demeure principalement les agents de recherche informationnelle,
il est important de regarder de près d’autres types destinés à la mesure d’audience, au
marketing en-ligne et au fonctionnement et à l’amélioration des moteurs. Sans ces outils
d’analyse des flux informationnels, il serait très difficile aux moteurs et aux portails de
continuer de fournir leurs services gratuitement.

210
[Link]/glossary/[Link], consulté le 07 09 2004.
211
[Link]/terms/[Link], consulté le 07 09 2004.
212
[Link]/help/[Link], consulté le 07 09 2004.
213
[Link]/resources/stw/[Link], consulté le 07 09 2004.

78
Première partie ─ De nouvelles machines à communiquer

Il est maintenant nécessaire de passer en revue les agents permettant d’acquérir des
renseignements sur les goûts et comportements des internautes et d’en construire des bases
de données dont la valeur est inestimable. La recherche dans ce domaine s’est effectuée à la
fin des années 90 au MIT, notamment sous la direction de Patty MAES, fondatrice du
Software Agent Group214. Nous présenterons tout d’abord le filtrage collaboratif, le
datamining et le datawarehousing.

Le filtrage collaboratif joue un rôle essentiel dans le domaine du marketing sur Internet.
215
Ce type d’agent est présenté par Gil DERUDET comme un programme qui « trace le
profil psychologique (comportements, goûts, habitudes des utilisateurs des sites Web. »
Cette technique, appelée ACF (Automated Collaborative Filtering), permet de proposer à
un client potentiel des produits ou des services déjà choisis par d'autres clients ayant les
mêmes goûts. Lorsqu’un internaute choisit un livre à [Link], par exemple, il se voit
proposer un choix de livres commandés par d'autres clients qui ont acheté l’œuvre en
question ou, plus précisément, font partie du même groupe que lui. Ainsi, lorsque le
consommateur achète un produit, il reçoit une liste d'autres biens correspondant aux goûts
de son groupe de profil.

Le filtrage collaboratif, en effet, en gérant le profil de chaque client, a pour ambition de


dresser le profil de groupe partageant les mêmes goûts et centres d'intérêts. On ne peut que
constater la puissance de tels outils d'analyse et de vente qui se développent sur le Web.
Néanmoins, on s'aperçoit facilement des dangers que ces outils de marketing
représenteraient pour l’internaute, pour la vie privée et la confidentialité.

Ainsi, les stratégies de marketing tendraient vers une relation personnalisée avec le
client plutôt que vers la mise en relief du produit. Le but est de mieux servir en termes de
satisfaction et de fidéliser. Ces outils constituent le côté caché du site Web. Ils permettent
aux portails de peaufiner leur offre auprès des annonceurs et de générer ainsi des revenus
publicitaires.

Historiquement, c’est Patty MAES du MIT qui la première a développé un agent appelé
Firefly. Celui-ci a servi de modèle à d’autres logiciels couramment utilisés pour analyser

214
[Link] consulté le 23 08 2004.
215
DERUDET, Gilles, "La révolution des agents intelligents", Internet Professionnel, N° 9, mai 1997, p. 77.
79
Les agents intelligents sur Internet : enjeux économiques et sociétaux

les comportements et goûts des internautes. Microsoft216 a fait l’acquisition de la firme


[Link] pour 40 millions de dollars en 1998. En France, Patrick PERNY, professeur
d’informatique au laboratoire lip6, a développé un film-conseil movie recommender system.
Il s’agit de conseiller des films à partir des informations librement fournies par les
internautes.

Firefly s’employait à l’origine dans le domaine de la vente de CD de musique. L'agent


collaboratif invite l'utilisateur à évaluer d'une manière explicite un produit spécifique. Il lui
envoie un formulaire d'évaluation à remplir. Puis, le dispositif cherche dans sa base de
profils des internautes présentant des goûts semblables. Ensuite l’agent conseille d'autres
produits à l’internaute à partir des recommandations des membres de son groupe. Plus le
nombre de disques sélectionnés est élevé, plus les conclusions tirées par Firefly sont
pertinentes et significatives217.

L'évaluation est mise en œuvre par un menu à la gauche du nom de l'artiste. La note
attribuée s’échelonne de 1 à 6. L’internaute doit cliquer sur la case (submit and send more)
pour enregistrer sa note. A partir d'une vingtaine de musiciens évalués de cette manière,
l'utilisateur reçoit une liste d'artistes ou de titres recommandés par le programme en
fonction de son groupe de profil. Force est de constater dans ce dispositif que la
participation active de l’usager est indispensable.

Le logiciel utilise la technique de raisonnement à base de mémoire (memory based


reasoning) afin de repérer des amas d’informations concernant les groupes d’usagers. Cette
technique est appelée analyse des similitudes (user pattern clusters). Ce genre de
raisonnement s’appuie sur des couples situation-action. En l'occurrence, la situation est
définie par le nom de l'artiste, le disque, le genre de musique. L'action correspond au
jugement de valeur (évaluation) porté par l'internaute.

D'autres agents utilisent également la technique appelée analyse d’affinités (clustering).


La collecte d’information est traitée par une technologie issue de la recherche en IA. Celle-

216
Paul THURROT, “It’s official, Microsoft to acquire FireFly” Windows Network and Net Magazine, 9 avril
1998. [Link] consulté le 8 juillet 2004.
217
Alper CAGLAYAN, Collin HARRISON, op. cit. p. 75-76.

80
Première partie ─ De nouvelles machines à communiquer

ci permet d’analyser des résultats et d’en chercher des corrélations insoupçonnées. Il s’agit
du datamining (fouille de données).

Cette technique a pour objectif d’extraire des informations pertinentes d’une masse
importante de données218. Elle joue un rôle essentiel pour les entreprises qui cherchent à
établir une relation « un à un » (one-to-one) avec leurs clients. Si l’on veut développer le
commerce sur Internet, le datamining sera indispensable d’autant plus qu’il permet de
mieux connaître le client en fonction de ses choix de pages visitées, des produits qu’il
commande, ou de sa navigation sur Internet. L’usage des cookies219 facilite l’identification
et la suivie des visiteurs.

Les entreprises, lors des transactions enregistrées, possèdent déjà des renseignements sur
leurs clients. Il leur suffit d’archiver ces données pour créer la mémoire (clientèle) de
l’entreprise et d’ajouter de l’intelligence pour en améliorer l’utilisation. Qui plus est, cette
mémoire structurée permettrait de faire des prédictions sur la consommation future de sa
clientèle.

Historiquement, le datamining est apparu au début des années 90, rendu possible par la
capacité de l’informatique à gérer des masses de données considérables. Il s’inscrit dans un
contexte extrêmement concurrentiel lié à la croissance du commerce international et au
phénomène de mondialisation. L’informatique a permis l’archivage des données et
l’intelligence artificielle l’exploitation de celles-ci.

Les outils du datamining proviennent de diverses disciplines : la statistique,


l’informatique et l’intelligence artificielle. Dans ce dernier domaine, on utilise des
techniques de classification automatique, de réseaux de neurones, d’arbres de décision,

218
La première définition donnée par Google (define :data mining) : An information extraction activity whose
goal is to discover hidden facts contained in databases. Using a combination of machine learning, statistical
analysis, modeling techniques and database technology, data mining finds patterns and subtle relationships in
data and infers rules that allow the prediction of future results. Typical applications include market
segmentation, customer profiling, fraud detection, evaluation of retail promotions, and credit risk analysis.
[Link]/[Link], consulté le 23 08 2004.
219
A chaque visiteur d’un site, correspond un cookie ou identifiant. Lorsqu'un internaute se connecte à un site
pour la première fois, le serveur Web envoie une page (HTML) destinée à créer un cookie. C'est le navigateur
Web qui crée le cookie (ou fichier identifiant) qui contient des informations (nom, date d'expiration, nom de site
de la page Web d'origine). Quand un utilisateur visite le site pour consulter une page une seconde fois, le serveur
Web vérifie s'il existe un cookie correspondant à cette page sur le disque dur du visiteur.

81
Les agents intelligents sur Internet : enjeux économiques et sociétaux

d’algorithmes génétiques pour améliorer les résultats des réseaux de neurones, et enfin le
raisonnement à base de cas. Sur Internet, les informations concernant les internautes sont
enregistrées par les cookies et envoyées par clickstreams (chemin de navigation d’un
internaute) vers les systèmes d’analyse et de traitement et conservées dans les
datawarehouses (entrepôts de données). Ces banques de données permettent de retrouver
les coordonnées d'un client, de retracer ses commandes et son comportement précédent.

En conclusion, on constate que ces outils favorisent le développement de la


personnalisation de la relation entre l’entreprise et le client, et ils permettent aux firmes
spécialisées dans cette collecte de devenir des courtiers en informations. Ces agents
semblent nécessaires pour garantir la pérennité des portails et des moteurs de recherche
dont le modèle économique s’appuie sur la gratuité des services et la publicité.

LES AGENTS SONT-ILS INDISPENSABLES ?


On peut se demander pourquoi l’utilisateur a besoin d’agents intelligents. La croissance
phénoménale d’Internet en nombre de sites et de documents nécessite le développement de
programmes pour gérer le flux des informations et la recherche documentaire. Au début
d’Internet, le moyen le plus utilisé pour trouver un document était le surfing220, c’est-à-dire
une forme de navigation qui consiste à explorer Internet par le biais d'hyperliens. Or cette
méthode s'avère de plus en plus inadéquate étant donné la quantité d'informations
disponibles sur le Web. D'où la nécessité d'utiliser des agents d’Internet. Or, après avoir
observé les usagers, on constate que très peu parmi eux se servent d’agents logiciels
téléchargés. La majorité préfère passer par un moteur de recherche ou un portail.

Cependant, les fonctionnalités intégrées dans certains agents logiciels réduisent le


bruit221 en filtrant les résultats proposés, ce qui allège en partie la surcharge
informationnelle que l’usager doit gérer. Si en amont, les moteurs de recherche semblent
avoir réussi à réduire le bruit et à présenter une liste de résultats satisfaisants après quelques
itérations, la gestion de l’information sur le PC de l’utilisateur n’est pas au point pour
l’instant. A notre avis l’un des enjeux économiques consiste à faire installer sur l’ordinateur

220
Le surfing représentait 30% du trafic en 2001 contre 60% en accès direct à partir des signets enregistrés par
l’internaute, et 10% à partir d’un moteur. Cf. annexe 15.
221
Information non pertinente.

82
Première partie ─ De nouvelles machines à communiquer

de l’usager un logiciel qui fonctionne en étroite liaison avec un moteur de recherche222.


Ainsi deux des trois points stratégiques (PC, Moteur, site ciblé) seront liés en permanence.

L’usager dispose de quatre grandes classes d’outils de recherche documentaire sur


Internet. Il peut les choisir librement pour l’instant car la plupart sont gratuits. D’après nos
enquêtes en 2003, le premier choix des internautes est de loin le moteur de recherche.
L’annuaire paraît moins utilisé en tant que tel, mais il peut contenir un moteur de recherche
fourni par un partenaire, comme l’atteste l’exemple de Yahoo223. Le métamoteur en-ligne
(considéré par certains comme un agent intelligent en-ligne) peut être consulté. Les agents
logiciels téléchargés sur le disque dur de l’internaute demeurent moins connus par le grand
public et constituent des outils destinés essentiellement aux professionnels de la veille.
L’agent est soit un logiciel, soit un métamoteur en-ligne, soit un programme intégré dans un
système de recherche. L’usage a donné à ce terme une polysémie regrettable.

On peut constater que les agents se connectent à l’ensemble des ressources qui
structurent l’organisation de l’information, de la connaissance et du savoir sur Internet. Plus
ils sont perfectionnés, plus ils comportent des langages permettant d’interroger avec
précision les autres outils et sources d’information. Cependant, utiliser un agent, le
paramétrer et en exploiter les fonctionnalités représente un coût en termes de temps et
d’efforts d’apprentissage.

Les moteurs de recherche indexent des pages Web et permettent à l’internaute de trouver
des documents. Néanmoins, aucun moteur ne couvre l’ensemble des ressources du Web.
Par conséquent, on désigne par le Web invisible cette partie d’Internet non indexée par les
moteurs. Quant aux métamoteurs, ils interrogent simultanément plusieurs moteurs de
recherche, des annuaires spécialisés et même des annuaires contenant des liens vers le Web
invisible. Leur utilité dépendrait en partie du nombre de sources accessibles. Cependant, un
grand nombre de sources n’implique pas forcément de meilleurs résultats. Qui plus est, le
temps de requête est beaucoup plus long. Pour l’instant, les agents logiciels semblent avoir
perdu la bataille. Ont-ils pour autant perdu la guerre ? Nous comparerons les agents

222
Copernic propose un logiciel agent indexant les fichiers de l’usager, son e-mail, et permettant une recherche
sur Internet par le biais d’alltheweb. Google a lancé le 14 octobre 2004 sa version d’un moteur de recherche
interne.
223
D’abord Google, ensuite Overture.
83
Les agents intelligents sur Internet : enjeux économiques et sociétaux

métamoteurs et les moteurs de recherche afin de comprendre pourquoi la plupart des


usagers préfèrent ces derniers aux premiers.

84
Première partie ─ De nouvelles machines à communiquer

1.4. AGENT LOGICIEL OU MOTEUR DE RECHERCHE ?


Nous présentons et comparons Copernic, un agent logiciel, avec le moteur de recherche
le plus utilisé et apprécié par les internautes, Google224, afin de poser les questions
suivantes : dans quelle mesure ce dernier a-t-il intégré les fonctions attribuées aux agents
intelligents ? Cette intégration explique-t-elle son succès auprès du grand public comme
auprès des professionnels ? Est-elle suffisante pour améliorer les résultats d’une requête et
pour aider l’usager à analyser le contenu d’un document, c’est-à-dire réduire le bruit et
diminuer la surcharge d’information? Ainsi nous répondrons à notre première hypothèse.

Notre choix se justifie de la manière suivante. Copernic comme Google sont, à notre
avis, à la pointe de l’innovation. Les autres moteurs, en règle générale, suivent les
nouveautés proposées par Google, qui représente, comme nous l’avons affirmé déjà 73%
environ du trafic. Toutefois, nous ferons référence aux autres moteurs et agents de
recherche à titre de comparaison. Les tableaux descriptifs de ces derniers sont présentés en
annexes225.

Il nous semble nécessaire d’établir une grille d’analyse pour comparer les fonctionnalités
de ces deux produits. Ensuite nous présenterons la technologie de Copernic, puis celle de
Google. Enfin, nous essaierons d’expliquer le modèle socio-technique qui a permis à
Google de devenir, pour l’instant, leader de ce marché en plein développement.

224
Le verbe “to google” est entré dans la langue américaine pour signifier « faire une requête ou une recherche
sur Internet ». Exemple : To run something or someone through Google, the first step in researching anything.
"Did you Google him yet?" [Link]/story/[Link]
225
Cf. annexes 4.
85
Les agents intelligents sur Internet : enjeux économiques et sociétaux

CRITERES DE COMPARAISON DES OUTILS DE RECHERCHE


Nous avons choisi neuf critères permettant de comparer la performance d’un outil de
recherche : sources, paramétrage, interface, analyse des résultats, filtrage, classement,
veille, archivage et communication. Le choix du terme outil est opératoire ; il désigne à la
fois les moteurs de recherche, les logiciels et les métamoteurs en-ligne. Les trois ont le
même but : faciliter la recherche d’informations et l’organisation des résultats des requêtes.

Un tableau, donné en annexe226, permet d’évaluer et de comparer les agents divers. Si


une fonction existe dans un logiciel, on indique sa présence par une croix. Ainsi, il est
possible de connaître les fonctions offertes par un outil. Nous utiliserons plus loin ce
tableau pour comparer Google et Copernic.

Par source, on dénote l’ensemble de sites qu’un métamoteur peut interroger


simultanément lors d’une requête. A titre d’exemple, WebCrawler227 se connecte à huit
moteurs de recherche et interroge leurs bases d’indexation, notamment Google228, Yahoo,
About, Ask Jeeves, LookSmart, Teoma, Overture et FindWhat.

Certains ont accès à des bases de données spécialisées, à des annuaires ou à des moteurs
de recherche sectoriels, aux sites fédérateurs donnant accès au Web invisible. Le nombre de
sources est souvent publié par l’éditeur de logiciel dans les pages descriptives du produit.
L’usager peut également choisir ses propres sources et ainsi personnaliser ses requêtes. Les
chaînes d’information (journaux, fils229 (threads) des agents de presse, dépêches.) font
partie de l’offre de même que les sites du commerce en-ligne. Les catégories de la
recherche désignent les thèmes, classés par rubrique, figurant dans les annuaires.

L’usager peut choisir un domaine comme les groupes de discussion (Deja, Cent,
[Link] ou Topica), les annuaires d’adresses du courrier électronique InfoSpace,
(Internet Address Finder, Mirabilis, Snap, WhoWhere et Yahoo People Search), le

226
Cf. annexe 4.
227
Source : le site de webcrawler : [Link] consulté
le 7 juillet 2004.
228
Google n’autorise une méta-requête que dans le cadre d’un partenariat.
229
Le terme fil d’information implique le suivi d’une information dans le temps ou d’une correspondance par e-
mail. Il traduit l’anglais thread.

86
Première partie ─ De nouvelles machines à communiquer

commerce en-ligne (livres ou matériel informatique). Il peut également rajouter un nouveau


domaine en option. Certains modules additionnels font l’objet d’une vente230.

Quelques commentaires s’imposent ici. Un moteur de recherche, en général, ne se


connecte pas à d’autres moteurs ; il fournit des résultats à partir de ses propres bases
d’indexation. Cependant, il peut intégrer des moteurs spécialisés, affiliés ou achetés par lui.
Google, par exemple, propose les services de son comparateur des prix. Les métamoteurs,
par contre, ne peuvent que faire appel aux moteurs et aux annuaires, n’ayant pas leur propre
base d’indexation.

Le paramétrage est une fonction essentielle : il permet à l’usager de raffiner sa requête. Il


est possible de sélectionner le nombre de résultats que l’outil doit présenter (10 par
source231 ou 100 maximum par requête.) D’autres fonctions telles que la vérification de
l’orthographe de la requête, le choix des opérateurs booléens ou de proximité (near)
améliorent le dispositif. La troncature existe en fonction des moteurs de recherche
interrogés. La prise en charge de l’ordre des mots, la manière d’insérer une expression
exacte ou une phrase entière entrent dans cette caractéristique. La page avancée
d’AltaVista, par exemple, offre quatre boîtes de dialogue : tous les mots, l’expression
exacte, un des mots suivants, aucun des mots suivants. Une autre boîte autorise l’usage des
opérateurs booléens (AND, OR, NOT).

Le choix d’un format joue un rôle important dans la recherche documentaire. Par
exemple, si l’on veut un article scientifique, en paramétrant le format pdf uniquement, il est
possible d’éliminer une quantité de pages (commerciales).

Le paramétrage implique un fort degré d’implication et de maîtrise du processus de


requête de la part de l’usager. C’est pourquoi les agents logiciels sont souvent proposés aux
professionnels de la veille plutôt qu’au grand public.

La catégorie « interface » caractérise la manière dont les écrans se présentent à l’usager.


Les types et les qualités des barres d’outils, les fonctionnalités proposées grâce à celles-ci
augmentent ou diminuent, si elles sont trop compliquées, l’efficacité et l’appropriation de

230
C’est le cas de StrategicFinder.
231
Moteur de recherche ou annuaire.
87
Les agents intelligents sur Internet : enjeux économiques et sociétaux

l’outil informatique. Certains agents proposent plusieurs barres. L’organisation de l’écran


en secteurs, la simplicité ou complexité de la visualisation, le type de présentation
(cartographique) entrent dans cette catégorie.

Google possède une première page d’accueil très simple et très dépouillée. Teoma et
alltheweb font de même. Ask Jeeves, par contre est plus chargé en information. Yahoo est
beaucoup plus complexe, proposant les rubriques de son annuaire et des liens vers des sites
commerciaux.

L’analyse des résultats paraît le point le plus problématique pour l’instant232. Il est
probable que ce facteur détermine en partie le prix d’un logiciel de veille. Certains, en effet,
proposent des fonctions d’analyse. Il s’agit de résumer le contenu de la page et de surligner
les mots-clés (introduits par l’usager lors de sa requête) en plusieurs couleurs. Identifier et
extraire les concepts- clés dans un document reste l’apanage des logiciels de veille proposés
aux entreprises (Autonomy, Verity, Semiomap). La traduction automatique s’améliore tout
en restant insuffisante. Dans la catégorie analyse, nous avons aussi classé l’origine du
document ou source (moteur, annuaire, base de données, vortail233) fournie par l’outil, car
elle apporte des informations significatives supplémentaires sur le document trouvé.

La fonction « filtrage des résultats » peut réduire considérablement le bruit généré par
une requête. Il s’agit notamment de pouvoir éliminer les doublons (même document
présenté par plusieurs sources), les liens morts (la page n’existe plus) et les bannières
publicitaires et pop-ups (boîte publicitaire qui apparaît sur l’écran et gêne la lecture de la
page). Certains logiciels permettent d’inclure ou d’exclure des domaines de recherche, des
langues, des pays ou des régions géographiques, la date de modification de la page Web.

A titre d’exemple, webcrawler permet de filtrer les sites pour adultes (pornographiques),
ou de filtrer un document en fonction de la date (avant ou après la modification de la page).
Il est possible d’inclure ou d’exclure les domaines génériques (.com, .edu, .org. etc.) ou de
choisir la langue des pages à présenter. Google, par exemple, possède une fonction

232
Le rapport de la firme FULD compare les logiciels de veille destinés aux entreprises et constate que l’analyse
sémantique reste un problème majeur.
Source : Fuld & Company, Intelligence Software Report, 2002, Intelligence Software : the global evolution,
disponible au site [Link] en pdf. p.2.
233
Vortal en anglais : un portail spécialisé dans une industrie ou groupe d’intérêt.

88
Première partie ─ De nouvelles machines à communiquer

« recherchez dans ces résultats » qui permet d’introduire un ou plusieurs mots-clés pour
raffiner une requête à l’intérieur d’une liste présentée par le moteur. L’interface de Kartoo
renforce la valeur d’un terme ou permet d’en diminuer l’importance dans une reprise de
requête.

Le classement des résultats facilite leur gestion et organisation. L’usager peut les
grouper par score de pertinence (présentée en pourcentage et attribuée par les algorithmes
du moteur), date de la dernière visite, par domaine ou thème, ou en fonction des annotations
que l’usager peut faire et conserver à propos d’une page. On peut les trier également par
ordre alphabétique, sources ou dates de modification.

Le métamoteur Vivissimo présente à droite de la liste des résultats une colonne de


concepts (Clustered Results234) extraits des documents proposés. Si l’usager clique sur l’un
d’entre eux, il a accès à une nouvelle liste où prédomine le concept choisi.

La catégorie « veille » facilite le suivi des requêtes et la surveillance des pages ou des
thèmes. On y trouve l’alerte par e-mail, la création d’un calendrier de veille spécifiant la
fréquence à laquelle l’usager recevra une liste d’adresses. Celle-ci dépend des thèmes
choisis au préalable. Le dispositif permet également de suivre les changements observés
dans un document et de les signaler par courrier électronique. Cependant, toute
modification ne présente pas un très grand intérêt et le paramétrage de cette fonction est
nécessaire pour réduire la quantité d’alertes envoyées. Par exemple, il est possible
d’indiquer un nombre minimum de mots modifiés. Certains logiciels surlignent
automatiquement les modifications apparues sur la page surveillée.

La fonction d’aspirateur permet de récupérer un site en entier et de l’analyser.


Cependant, cette pratique, qui semblait nécessaire lorsque le débit de connexion était très
faible, nous paraît de moins en moins utile avec l’arrivée du haut débit. Ces programmes
font partie de la technologie PUSH. Autrefois commercialisés séparément, ils s’intègrent
dans certains outils de recherche.

La fonction « archivage de la recherche » a pour objectif de classer les documents ou les


liens récupérés, de conserver une trace de la formulation de chaque requête (pour en faire

234
Résultats regroupés.
89
Les agents intelligents sur Internet : enjeux économiques et sociétaux

de nouvelles recherches avec les mêmes termes) et de conserver un historique des


recherches effectuées. Ce dispositif est d’autant plus important que l’un des problèmes
majeurs posés à l’usager est la gestion de toute l’immense quantité de documentation
facilement récupérable.

Par communication, on désigne la possibilité de partager les adresses Web et les


documents récupérés avec autrui. Certains sites Web et les moteurs de recherche ont intégré
cette fonction avec le lien « e-mail a colleague ». Lorsque l’internaute consulte un
document, il perçoit en haut de la page un lien qui facilite l’impression et un autre qui
envoie la page vers la personne désignée par lui. Cette fonction entre dans le cadre du
travail collaboratif (groupware).

Si le terme agent désigne souvent chez les usagers avertis un logiciel agent du type
métamoteur, l’expression recouvre également des programmes contenus dans le progiciel
(aspirateur, alertes). Nous considérons comme agents les fonctionnalités présentes dans un
outil de recherche. Ainsi à partir des critères définis ci-dessus, il nous est possible de
vérifier la présence de programmes du type agent intelligent intégrés dans les moteurs de
recherche et d’autres logiciels. Passons maintenant à la validation de notre première
hypothèse : les moteurs de recherche ont intégré la technologie agent pour devenir de
véritables agents intelligents. Notons par ailleurs que ce terme désigne un ensemble et des
éléments d’un ensemble à la fois. Par conséquent, il pose des problèmes ontologiques.

COPERNIC : AGENT METAMOTEUR


L’exemple de Copernic devrait nous permettre d’examiner les fonctionnalités d’un
logiciel agent et de déterminer dans quelle mesure celui-ci correspond aux critères
d’autonomie, de coopération et de communication définis plus haut. Il peut servir de point
de comparaison avec un moteur de recherche ou tout autre logiciel agent.

Présentation de la firme Copernic


Copernic reste l’un des meilleurs exemples d’agent du type métamoteur235 hors ligne. Il
a souvent été cité par les personnes interrogées lors de nos entretiens et enquêtes. Conçu par
la société canadienne [Link]., fondée en 1996 par Martin BOUCHARD, alors âgé

235
L’usager télécharge un logiciel qu’il installe sur son ordinateur.

90
Première partie ─ De nouvelles machines à communiquer

de 23 ans236, ses produits sont destinés au grand public et aux PME. Selon le communiqué
de presse237 de la firme québécoise, trente millions de logiciels auraient été installés,
répartis dans le monde entier, depuis le lancement du produit en automne 1997. Il existe
trois versions de Copernic Agent : Copernic Basic (gratuit), Copernic Personal, Copernic
Pro. L’emploi du terme « agent » l’associe d’emblée à la notion d’agent intelligent dans la
mesure où le logiciel agit pour le compte de l’utilisateur et est supposé exploiter les
ressources de la recherche en IA. L’entreprise ne publie pas pour l’instant ses résultats.

On peut constater que les différences entre les divers logiciels proposés par la société
canadienne découlent du nombre supérieur de sources, de chaînes et de fonctionnalités
proposées. La version BASIC comporte des bannières publicitaires pour financer238 en
partie la gratuité du produit. La fonction de veille est réservée à la version Pro. A titre
d’exemple, cette dernière propose une vingtaine de fonctionnalités que la version Basic ne
possède pas. Il s’agit, en l’occurrence, de pouvoir faire des recherches dans les groupes de
discussion, d’ajouter des domaines ou sources en option à partir du site de Copernic.

Il est également possible de faire appel à un service de traduction, de personnaliser les


sources, de paramétrer les résultats par moteur. Cependant ces fonctions exigent une forte
interactivité entre le système informatique et l’usager. Ces outils supplémentaires
constituent la proposition de valeur que Copernic fait à sa clientèle. Nous avons constaté
l’intégration de certaines fonctionnalités que l’on associait aux agents intelligents à la fin
des années 1990, notamment le filtrage et le PUSH.

Le modèle économique de Copernic consiste à donner une version gratuite du logiciel et


à rappeler le client potentiel pour qu’il achète une des versions plus élaborées. Ainsi
l’internaute, lorsqu’il clique sur une fonctionnalité, absente de la version de base, reçoit un
pop-up spécifiant la version nécessaire pour accomplir l’opération demandée. L’usager peut
donc se rendre compte de ses besoins non encore identifiés lors d’une requête. La version
Basic a pour objectif de laisser l’usager tester le produit avant de passer à l’achat.

236
[Link] consulté le 16 juin 2004.
237
Idem, p. 1.
238
Quand un service ou un produit est gratuit, la publicité est difficilement contournable. Payer permet d’accéder
à des options qui bloquent les pop-ups.
91
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Les concepteurs du produit ont une certaine représentation de l’usager239 : une personne
qui fait de la veille ou de la recherche sur Internet, ayant certains besoins en matière de
sources d’information. Cet usager idéal est considéré comme actif et capable d’interagir
avec le logiciel. Par conséquent, les versions évoluent en ce sens car de nouveaux besoins
entraînent l’ajout de fonctions innovantes. Si les cookies, installés sur les disques durs,
renseignent l’éditeur sur les difficultés rencontrées par les usagers, il peut adapter ces
produits très rapidement.

Copernic et les entreprises


La firme Copernic s’oriente vers le Knowledge Management et propose une solution de
gestion de l’information, Copernic Empower. Il s’agit d’une application serveur240 qui doit
permettre aux firmes d’optimiser leur capital informationnel par le biais de technologies de
recherche, de veille et de résumé de texte. Les technologies déjà expérimentées sont ainsi
présentées sous une nouvelle forme en fonction des besoins d’une société. C’est le cas de
Copernic Enterprise Search, un progiciel de recherche et d’indexation des documents inclus
dans les bases de données et des intranets des entreprises. Google et d’autres moteurs
s’intéressent également à ce marché, suivant l’exemple de la firme Autonomy, considérée
comme le leader dans le secteur des moteurs de recherche internes pour intranets.

Copernic 2001 Server est une solution Web de recherche distribuée, conçue pour les
entreprises. Ce produit interroge des centaines de sources d’information spécialisées et
multilingues - dont des bases de données d’affaires. On constate que ce logiciel tient
compte des exigences de la globalisation en intégrant des fonctions de compréhension des
langues étrangères. C’est l’un des enjeux des agents intelligents : gérer les informations en
provenance de sources écrites en différentes langues.

Il nous semble que cette entreprise canadienne a développé tout d’abord une technologie
de pointe destinée au grand public avant de sortir des solutions adaptées aux besoins de
veille et de gestion du savoir des entreprises. Le modèle de la gratuité ou de la

239
Patrice FLICHY , op. cit., p. 89.
240
Platform: Windows NT 4 Server, Windows 2000 Server, Price: $15,000 per processor.
[Link] consulté le 23 janvier 2004.

92
Première partie ─ De nouvelles machines à communiquer

démonstration pendant un temps limité permet aux entreprises de prendre connaissance des
produits Copernic, de les tester, avant de décider de les acheter.

Pour mieux comprendre la nature d’un agent logiciel du type métamoteur hors ligne,
nous examinerons les diverses fonctions de Copernic Pro241. Il nous a paru judicieux de les
regrouper selon la catégorisation présentée plus haut : sources, paramétrage, interface,
analyse, filtrage, classement, veille, archivage et communication. Il comprend certaines
phases du cycle de la veille242. Toutefois il faut préciser que les informations ci-dessous
proviennent du site243 de la firme canadienne.

Présentation du logiciel agent


L’agent se connecte à plus de mille sources d’information, notamment les moteurs de
recherche généralistes ou spécialisés et certaines bases de données. La version Pro peut, en
effet, se connecter simultanément à trente-deux sources d'informations différentes. Il faut
toutefois noter que ce type d’agent consulte des moteurs et des bases de données qui
autorisent la méta-recherche244. Copernic permet d’élargir l’horizon des requêtes vers le
Web invisible dans toute la mesure du possible. Les catégories de recherche sont groupées
en fonction des domaines d'intérêt de l’usager. Il est aussi possible d'en installer des
supplémentaires.

Quant au paramétrage, l’usager a un large choix d’options personnalisables. Il peut


choisir le nombre de transferts simultanés (maximum 32) pour les opérations de recherche,
de vérification, d'analyse, d'extraction et de téléchargement ; personnaliser les barres
d'outils et les menus par l'ajout, la suppression et la réorganisation des boutons et des items,
par la création de barres d'outils; activer et désactiver les moteurs par défaut disponibles
dans les catégories grâce au gestionnaire des catégories. Il a également la possibilité de
personnaliser les nombres maxima de résultats à repérer par moteur de recherche et par

241
Source : Famille de produits Copernic Agent, Spécifications techniques,
[Link] le 20 janvier, 2004
242
“The intelligence cycle : planning and direction, published information, primary source collection, analysis
and production, report and inform”. Source : Fuld & Company, Intelligence Software Report, 2002, Intelligence
Software : the global evolution, disponible sur le site [Link] en pdf. p.2.
243
Source : [Link] consulté le 24 08 2004.
244
Google, par contre, la refuse sauf sous certaines conditions.
93
Les agents intelligents sur Internet : enjeux économiques et sociétaux

chaque catégorie et chacune des recherches. Il peut modifier un certain nombre d'options de
configuration comme les options d'affichage, résumés, rapports e-mail, avertissements et
délais d'attente.

Image 1 : Écran de l’interface de Copernic Agent

L’interface présente un certain nombre de fonctionnalités. L’ergonomie du système est


améliorée par une barre d’outils facilitant l’interaction entre l’usager et le système
informatique. Le logiciel possède également une barre de recherche rapide destinée à la
création de recherches courantes. L’internaute peut suivre de près l’évolution de la requête :
les résultats s’affichent progressivement pendant le déroulement.

La barre d'aperçu des documents s’insère dans la fenêtre principale. L’usager peut
déterminer la pertinence des documents sélectionnés avant de les consulter par le
truchement du navigateur. Pour accélérer le processus, les documents chargés sont

94
Première partie ─ De nouvelles machines à communiquer

conservés dans la mémoire-cache d'Internet Explorer. Il existe aussi une barre de filtres
comprenant plusieurs options pour filtrer les listes de résultats.

Une dernière barre de recherche dans les résultats inclut plusieurs fonctions avancées
pour rechercher des mots dans les listes des résultats et dans les pages Web trouvées. Le
filtrage est d’autant plus important qu’il permet de réduire le bruit et de diminuer la
surcharge d’informations qui constitue l’un des problèmes majeurs d’Internet, que les
agents intelligents devaient résoudre.

L’analyse des documents permet d'extraire des données à partir des pages Web trouvées
ou de les sauvegarder pour passer à l’analyse hors connexion245. Il est également possible
d’en extraire les concepts-clés.

Le logiciel permet de résumer le contenu d'une page de résultats. L’usager peut


déterminer si un document mérite son attention, en visualisant les concepts-clés et les mots-
clés, en lisant rapidement le résumé.

L’utilisation de la couleur pour signaler l’occurrence de mots-clés (utilisés dans la


formulation de la requête) aide également à déterminer l’intérêt pour le document.
Toutefois, les solutions proposées par Copernic se trouvent aussi dans les moteurs de
recherche. L’analyse automatisée de documents relève un défi important pour les
concepteurs de logiciels, et pour l’instant, seul l’homme est vraiment capable de réaliser
cette phase du cycle de la veille. Au mieux, l’agent intelligent n’est qu’un outil
paramétrable. Il peut toutefois faciliter la lecture rapide.

La version Pro intègre le logiciel de synthèse de texte de Copernic. Ayant recours à des
algorithmes basés sur des calculs statistiques et des données linguistiques, Copernic
Summarizer identifie les concepts-clés d'un texte et en extrait les phrases les plus
marquantes, produisant ainsi un résumé du document.

Cet agent produit un résumé (ou synthèse) de la dimension désirée (10%, 25 %, etc.) à
partir d'un texte rédigé dans l'une des quatre langues retenues. Il résume des documents
Word ou PDF, des pages Web, des courriers électroniques et le contenu du Presse-papiers.
En plus, il s'intègre aux applications les plus répandues (Internet Explorer, Netscape

245
Fonction aspirateur.
95
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Navigator, Acrobat, Acrobat Reader, Outlook Express, Eudora, Word et Outlook). La


documentation du site insiste sur la gamme des logiciels compatibles avec Copernic, car
l’usager idéal se voit confronter à cet ensemble de formats.

Il est possible d’obtenir des résumés tout en navigant. Copernic LiveSummarizer génère
en temps réel un résumé concis de la page affichée tout en poursuivant son périple sur le
Web. L’internaute peut donc déterminer, sur la base de celui-ci, s'il lui est utile de lire la
page Web en entier ou non. La technologie WebEssence élimine le contenu non pertinent
des pages Web comme les publicités. Il contribue à réduire le bruit et la surcharge
d’informations. Nous n’avons pas encore constaté sur pièce ce type de fonction offerte par
les moteurs de recherche.

La fonction de filtrage consiste à diminuer le nombre de résultats à partir d’un ensemble


de critères. Pour ce faire, il est possible de vérifier l'orthographe des mots-clés, de
supprimer automatiquement les liens invalides (liens morts), de détecter la langue des pages
Web et d’identifier les pages identiques ayant des adresses différentes. Il s’agit, en effet,
d’éliminer les doublons qui faussent le nombre réel de résultats obtenus et constituent une
perte de temps pour l’usager. Ce dernier est l’un des facteurs qui différencie, pour le
moment, ce type d’agent et le moteur généraliste. On peut le considérer comme l’un des
composants de la valeur ajoutée de Copernic.

Le classement et la présentation des résultats facilite le tri et le choix des documents à


retenir, même si seul le sujet humain peut savoir quel document présente un quelconque
intérêt pour lui. L’attribution d'un score à chaque document trouvé et l’affichage des
résultats à l'écran par ordre de pertinence aident l’usager dans son choix.

La liste détaillée des résultats par requête fournit les données suivantes: titre du résultat,
extrait, score de pertinence, liens et langues des pages Web, annotation, date, moteurs de
recherche et concepts-clés. L’utilisation d'éléments visuels dans les listes de résultats
(icônes, soulignement, caractères gras et couleurs) améliore l’ergonomie du système, de
même que le surlignage des mots-clés dans les résultats et les pages Web affichées dans
Internet Explorer.

Il est possible de trier et de classer les listes de résultats selon divers champs: titre,
extrait, adresse, score, date de repérage, date de visite, date de modification, moteur de
recherche. L’usager peut aussi grouper les listes de résultats selon les mêmes champs ou en

96
Première partie ─ De nouvelles machines à communiquer

ajouter quelques nouveaux : état - nouveau, état - visité, état - sauvegardé, état - annoté, état
- coché, domaine, contenu des annotations, langue, contenu identique. L’annotation des
résultats apporte un avantage non négligeable.

L’intégration du menu Favoris d'Internet Explorer facilite l'ajout des liens de résultats.
Le logiciel permet de consulter des pages Web trouvées au cours de l'exécution d'une
requête, fonctionnalité que les moteurs ne possèdent pas encore. Cette fonctionnalité nous
semble intéressante dans la mesure où elle compense la lenteur du métamoteur par rapport
aux moteurs généralistes.

Toutefois, on constate qu’une requête par Copernic prend plus de temps que celle
effectuée par un moteur de recherche. En effet, l’agent doit charger et traiter en aval des
résultats provenant de multiples sources.

La fonction de veille repose sur l’automatisation et la définition d’une stratégie. Le


logiciel peut aider à mettre en œuvre ce type de dispositif. Les catégories ou thèmes de
veille peuvent être formulés et conservés en mémoire. Un calendrier246 facilite
l’organisation de ce processus dans le temps. Il est possible de surveiller les changements
dans le contenu des pages ou de faire une recherche périodique à partir de mots-clés ou de
thèmes prédéterminés. Puis un e-mail livre les résultats à l’usager ou à plusieurs
destinataires (si on le demande).

Copernic Pro permet de mettre en veille une page Web pour détecter automatiquement
des changements. Cela peut se faire de façon périodique et selon le nombre minimal de
mots fixé en rapportant ces modifications en les surlignant dans les pages. Il est inutile de
savoir si un document change, s’il ne s’agit que de quelques changements minimes et sans
importance significative. Le système fait preuve de plus d’intelligence que par le passé en
autorisant plus de précision sur le type de modification surveillée.

Il est possible de combiner la veille des recherches thématiques et celle des pages Web ;
et de garder disponible un rapport de progression du processus durant l'exécution des tâches
automatisées. De surcroît, une icône apparaît dans la barre de tâches de Windows au cours
de l’activité pour signaler que l’opération s’effectue.

246
Pré-défini : plusieurs fois par jour, sur une base journalière, hebdomadaire ou mensuelle.
97
Les agents intelligents sur Internet : enjeux économiques et sociétaux

L’automatisation des tâches constitue l’un des avantages des systèmes informatiques le
plus courant et le plus important. Elle peut faciliter la veille sur Internet et repose sur la
capacité d’un système à mémoriser et à conserver des instructions. Cette automatisation
chez Copernic se traduit par la validation des liens, l'analyse des contenus et l'extraction de
données des pages Web, le téléchargement des pages trouvées (fonction aspirateur) qui sera
suivi par une phase d’analyse hors ligne.

Le logiciel propose une mise à jour des recherches afin de trouver de nouveaux résultats
avec marquage de ceux-ci. Ainsi, l’usager peut consulter d’anciennes requêtes et les
comparer avec une nouvelle. Rien ne l’empêche de modifier les critères de recherche pour
obtenir des résultats plus précis et plus probants. Il reste la possibilité de dupliquer les
formulations de requête avec tous leurs paramètres et résultats afin d'accélérer la création
de recherches identiques.

Ces fonctionnalités exigent des stratégies et de l’expertise. Elles impliquent une forte
interactivité entre l’homme et la machine. Il n’est nullement question d’autonomie totale de
l’agent. On peut parler plutôt d’automatisation programmable.

L’efficacité du système de veille repose sur l’archivage. Cette fonction implique la


mémoire, la conservation, l’organisation rationnelle et l’accès rapide aux données stockées.
Le logiciel fournit un historique de recherches détaillé et illimité permettant un suivi des
recherches par un ou plusieurs usagers. Il est possible de créer des dossiers et des sous-
dossiers, de les copier et de les déplacer dans d’autres dossiers. Cet aspect augmente
considérablement la valeur du système en réduisant l’entropie du disque dur.

Par communication, on entend le fait de pouvoir échanger des données avec d’autres
agents, les usagers, les divers formats de document et d’autres logiciels. Copernic permet
d'exporter ou d’importer un rapport de recherche sous différents formats de fichiers:
HTML, Word (.doc), texte (.txt), XML. Sa communication avec l’usager se fait par le biais
de l’interface (barres d’outils) et par sa capacité à renvoyer des résultats et des rapports vers
d’autres personnes.

Nous avons constaté que Copernic Pro manifeste un grand nombre des caractéristiques
d’un agent intelligent, défini en termes abstraits comme la capacité à communiquer avec
l’usager par son interface (barres d’outils), ou avec d’autres agents, notamment les moteurs
de recherche et les bases de données ou la possibilité d’envoyer des résultats à d’autres

98
Première partie ─ De nouvelles machines à communiquer

personnes. Il possède un certain degré d’autonomie une fois le système paramétré par
l’utilisateur et une mémoire de ses activités.

La fonction de veille, en effet, permet une activité asynchrone de surveillance


thématique ou documentaire. Cependant, le raisonnement au niveau de l’analyse des
documents fait défaut. Le programme ne peut que constituer un outil en interaction avec
l’usager. Le rôle de ce dernier demeure primordial en ce qui concerne le paramétrage des
requêtes, la définition des stratégies de la veille et le choix et l’analyse des documents
récupérés. En outre, le programme n’apprend pas à partir des actions de l’utilisateur. Ainsi,
l’apprentissage lui fait défaut.

Nous présentons, en annexe247, à partir des données fournies par le site de Copernic, un
tableau comparatif des trois agents commercialisés par cette firme en 2003.

Ce tableau montre clairement les diverses fonctionnalités utiles, voire nécessaires, pour
la veille sur Internet. On peut considérer chaque module comme un agent intelligent
autonome intégré dans le progiciel. D’autres fonctions pourraient voir le jour si l’éditeur
estime qu’elles correspondent aux besoins des usagers. L’exemple de Copernic nous permet
de comparer un moteur de recherche avec un logiciel agent et de répondre à notre première
question de recherche. Passons à présent de Copernic à Google.

247
Cf. annexe 4.
99
Les agents intelligents sur Internet : enjeux économiques et sociétaux

GOOGLE EST-IL DEVENU UN SUPERAGENT INTELLIGENT ?


Ayant examiné les fonctionnalités d’un logiciel agent, il faut le comparer avec un moteur
de recherche. Le choix de Google s’impose par rapport à d’autres moteurs de recherche car
il nous semble être le plus utilisé et le plus efficace pour le moment. Par ailleurs, les autres
moteurs ont tendance à le suivre dans ses innovations. Nous avons étudié les fonctionnalités
qui à notre avis présentent certaines des caractéristiques d’un agent intelligent bien que
toutes les possibilités de ce moteur ne soient pas encore exploitées. En effet le système
informatique n’est pas figé et les usagers aussi peuvent contribuer à son développement.

Faisons d’abord un bref historique de cette entreprise. Ce moteur de recherche a débuté


comme projet de doctorat. Deux étudiants de l’Université de Stanford, Sergei Brin et Larry
Page, ont construit un prototype de moteur de recherche afin de tester leur algorithme
PageRank. Ils sont depuis entrés dans la légende (et la classification du magazine Fortune).
La firme Google inc. a débuté le 7 septembre 1998 à Menlo Park, en Californie. Elle est
entrée en Bourse le 19 août 2004. Cet événement a été largement couvert par la presse
écrite et la télévision.

Nous suivrons le schéma proposé pour Copernic : sources, paramétrage, interface,


analyse des résultats, filtrage des résultats, classement des résultats, veille, archivage et
communication.

Les sources de Google correspondent aux contenus de sa base d’indexation et aux


documents conservés et analysés dans les repositories (bases de données des pages
récupérées.) Google fait appel au Open Directory pour son annuaire et indexe aussi bien
des images que des groupes de discussion. Son service GoogleNews propose un méga-
journal régulièrement mis à jour. L’ambition de la firme de la Silicon Valley : organiser
l’information planétaire et la rendre universellement utile (« Google's mission is to organize
the world's information and make it universally useful and accessible. »)

Le moteur autorise un paramétrage relativement riche. Pour les internautes


expérimentés, Google propose une fonction recherche avancée, préférences, et outils
linguistiques. Si beaucoup d’usagers se contentent de requêtes simples à partir de quelques
mots-clés, certains dispositifs existent pour les professionnels de la veille.

100
Première partie ─ De nouvelles machines à communiquer

La fonction recherche avancée permet un paramétrage semblable à celui autorisé par la


plupart des agents logiciels. La boîte de saisie nous offre le choix entre « tous les mots
suivants », « cette expression exacte », « au moins un des mots suivants », « aucun des
mots suivants ». Il est donc possible d’exclure des termes, d’utiliser les opérateurs booléens
(AND, OR) sans entrer ces mots-outils, et d’insérer une phrase entière ou une citation, ce
qui peut réduire considérablement le bruit. Plus la requête est précise et bien structurée chez
l’usager, plus elle contient d’informations pertinentes et plus le moteur est efficace et les
résultats probants et peu encombrés. L’opérateur de proximité NEAR fonctionne par
défaut.

Il est possible de choisir entre 10, 20, 30, 50 ou 100 résultats affichés par requête. Une
fonctionnalité caractéristique des agents intelligents concerne le paramétrage des mots-clés
dans les diverses parties du document HTML : « n’importe où dans la page », « dans le
titre », « dans le corps de la page », « dans l’adresse de la page », et « dans les liens de la
page ». La possibilité existe de choisir une langue particulière ou toutes les langues par
défaut. Le choix de format (.pdf, .ps,.doc, .xls ou .ppt) permet d’affiner la recherche et de
gagner du temps.

Paramétrer la date (trois derniers mois, six derniers mois, l’année dernière) constitue une
fonction supplémentaire diminuant considérablement le nombre de documents proposés.
Deux boîtes de dialogue, en bas de la page Google, peuvent s’avérer utiles à favoriser une
recherche heuristique : similaires ou pages similaires à cette page et liens ou pages liés à
cette page. Il est possible de limiter une recherche à l’intérieur d’un site en précisant l’url
de celui-ci.

Nous présentons en annexe248 la matrice qui montre les multiples possibilités de


paramétrages de la page « recherche avancée » de Google d’une manière synoptique.

L’usager a le choix entre 16 types de paramétrages avec un très grand nombre de


combinaisons possibles. Pour optimiser sa recherche, ce dernier doit faire appel à son
expérience, à son intuition et à sa capacité d’anticiper le type de document qu’il recherche,
le corpus de termes qu’il contient, le type de domaine Internet, la place des mots-clés dans
la page HTML. C’est en réduisant l’incertitude du côté de l’internaute que la recherche

248
Cf. annexe 6.
101
Les agents intelligents sur Internet : enjeux économiques et sociétaux

s’améliore en qualité. La formulation de la requête constitue la première source de valeur


dans le processus de veille ou de recherche documentaire. Elle dépend de l’expertise de
l’usager.

Les préférences linguistiques de Google permettent de paramétrer le choix des langues


pour l’interface, celui de langue des pages recherchées (35 en tout). En limitant le nombre
de langues dans une requête, on peut diminuer considérablement le bruit. Le moteur
propose également un dispositif de traduction automatique. Il est possible de traduire du
texte de l’anglais249 en français, et vice versa, avec un choix d’autres langues ou
d’introduire l’adresse Web ou l’url d’une page et de faire appel à la traduction automatique.
Cependant, celle-ci, en phase d’expérimentation250, est lisible mais très proche du mot à
mot pour le moment. Cette fonction reste encore très rudimentaire.

Google permet à l’usager expérimenté de coder sa requête afin de la peaufiner. Toutefois


certaines de ces fonctionnalités se trouvent déjà dans la page d’accueil de la recherche
avancée du moteur. L’utilisateur averti peut coder sa requête grâce aux mots réservés suivis

249
« The flesh is weak, but the mind is strong », un des premiers problèmes de traduction automatique observée,
est traduit par « la chair est faible mais l’esprit est fort. »
250
Voici quelques exemples de traduction automatique :
« L'intelligence artificielle cherche à explorer de nouvelles modes de cognition. »
Traduction Google : « The artificial intelligence seeks to explore new fashions of cognition. »
« Les outils linguistiques de Google s'avèrent très innovants. Il est possible de paramétrer les langues et les
pays. »
Traduction Google : « The linguistic tools of Google prove very innovating. It is possible to parameterize the
languages and the countries. »
« OpenCyc is the open source version of the Cyc technology, the world's largest and most complete general
knowledge base and commonsense reasoning engine. Cycorp, the builders of Cyc, have set up an independent
organization, [Link], to disseminate and administer OpenCyc, and have committed to a pipeline through
which all current and future Cyc technology will flow into ResearchCyc (available for R&D in academia and
industry) and then OpenCyc. »
« OpenCyc est la version ouverte de source de la technologie de Cyc, base du monde de la plus grands et les plus
complets de connaissance générale et moteur de raisonnement de commonsense. Cycorp, les constructeurs de
Cyc, ont installé une organisation indépendante, [Link], pour disséminer et administrer OpenCyc, et l'ont
commis à une canalisation par laquelle toute la technologie actuelle et future de Cyc coulera dans ResearchCyc
(disponible pour le R&d dans le milieu universitaire et l'industrie) et puis OpenCyc. »
Ces exemples montrent que les textes assez simples et dépourvus d’ambiguïté peuvent être traduits et présentés
d’une manière compréhensible. L’exemple suivant montre que la métaphore et les expressions idiomatiques
posent quelques difficultés.
« He has a bee in his belfry250. She is the apple of her father's eye. »
Traduction Google : « Il a une abeille dans le sien belfry. Elle est la prunelle de l'oeil de son père. »

102
Première partie ─ De nouvelles machines à communiquer

du deux-points « : ». Le mot-clé vient aussitôt après le signe de ponctuation sans laisser un


espace. Par exemple, l’expression « site :[Link] » fournit des pages appartenant au
site de cette Grande École. La fonction define :word génère une liste de définitions
associées à des dictionnaires en-ligne.

Nous présentons en annexe251 la liste complète des mots réservés dont l’usager averti
peut se servir. Il faut préciser que ce type d’usage reste exceptionnel et plutôt réservé aux
« mordus » de Google. Nous verrons dans notre analyse des usages que l’utilisateur moyen
se contente d’une requête assez rudimentaire. Si tant de fonctionnalités existent, c’est que le
moteur s’adresse à une communauté d’usagers qui s’intéresse aux innovations.

Image 2 : Écran d’accueil de Google

251
Cf. annexe 6.
103
Les agents intelligents sur Internet : enjeux économiques et sociétaux

L’interface de sa page d’accueil (ci-dessus) est très simple, affichant en haut de cette
252
page une barre pour naviguer vers six fonctionnalités spécialisées : Web, Image,
Groupes, Répertoire, Actualités et Desktop253. La page Web permet d’entreprendre une
requête générale sur Internet. Le bouton Recherche Google active la requête et produit une
liste de résultats tandis que « j’ai de la chance » présente le résultat considéré comme le
plus pertinent. La page Image exclut les textes. Cependant par le biais d’une image, il est
possible d’explorer des sites contenant l’image recherchée et d’accéder à des sources
d’information inattendue. La page Groupes renvoie à des forums. Le Répertoire correspond
à un annuaire thématique du type Yahoo. Il est fourni par le Open Directory Project.

Un moteur (Actualités) spécialisé dans les articles d’actualités est disponible. L’usager
se voit présenter un journal sur Internet dont la ligne éditoriale est totalement automatisée.
La mise à jour se fait toutes les quatre heures environ254. L’annuaire présente sept
rubriques : A la une, International, France, Economie, Science/Tech, Sports, Culture et
Santé. Une boîte de dialogue permet d’interroger le moteur sur un thème choisi.

Nous étudierons dans le chapitre le fonctionnement de la barre d’outils, qui fait partie de
l’interface prolongée.

L’analyse des résultats, en effet, se fait en partie par le biais de la barre d’outils.
L’usager peut surligner les mots-clés de sa requête ou choisir un mot-clé et descendre la
page d’occurrence en occurrence. Pour ce faire, il suffit de cliquer sur le mot dans la boîte
de la barre. Néanmoins la fonction « Rechercher dans cette page » (CRLT + F), qui peut
s’activer lors de la consultation des résultats, permet de trouver une expression ou un mot
dans un document. Cependant, il s’agit d’une fonction intégrée dans Windows, donc
indépendante de Google. Toutefois, il est également possible de retrouver cette fonction en
bas de la page de résultats.

A la différence de Copernic, il n’y a pas de logiciel de synthèse de documents. La


traduction d’une page, par contre, peut s’effectuer en consultant la rubrique « outils

252
Web Images Groups Directory News.
253
La nouvelle interface américaine présente sept fonctions : Web, Image, Groups, News, Froogle, Desktop et
more. More renvoie à l’ensemble des services proposés.
254
Un service d’alerte (PUSH) est aussi disponible.

104
Première partie ─ De nouvelles machines à communiquer

linguistiques ». Il suffit d’introduire l’adresse url du document dans la boîte de dialogue et


d’activer le processus (qui se fait en quelques secondes).

Le filtrage des résultats s’effectue dans la page Recherche avancée. Il est possible de
filtrer la requête déjà lancée, en introduisant une expression exacte, en excluant un mot, en
limitant les langues, les formats, la date (de la dernière mise à jour), l’emplacement des
mots dans le document (titre, corps, adresse), les domaines Internet (.com, [Link], etc.) Une
fois cette opération faite, on relance la requête. L’ensemble de ces paramètres facilite la
réduction du bruit, mais le processus exige efforts et expertise de la part de l’internaute. Il
est également possible de filtrer les résultats à caractère sexuel ou obscène (SafeSearch)
dans la page Préférences de la version américaine du moteur. On a le choix entre use strict
filtering (Filter both explicit text and explicit images), use moderate filtering (Filter explicit
images only – default behaviour) et do not filter my search results. Cette fonction est
absente de la version française du moteur.

Le classement des résultats pose un problème puisqu’il n’existe pas dans l’interface
proposée par le moteur. Cependant, il est possible de créer des programmes (hacks) pour
organiser la liste des résultats.

Comme chez Copernic, Google offre certains services utiles pour la veille. Le dispositif
se situe au niveau thématique et au niveau actualités. Cependant, les deux services sont en
phase d’expérimentation. Pour y participer, l’usager s’engage à respecter certaines règles255.
Qui plus est, ce dernier est encouragé à participer activement sans recevoir aucune
compensation. Cela fait partie de la relation usager - service fondée, sur la gratuité. Google
s’autorise le traitement statistique et le partage des informations ainsi analysées avec ses
partenaires commerciaux. Toutefois, aucune information nominale ne sera transmise, sauf
en cas d’actes criminels. Un dispositif de feedback se trouve associé à ce service.

Le dispositif d’alerte256 laisse l’internaute choisir un nombre limité de thèmes à


surveiller. Il est possible de paramétrer la fréquence de la recherche (chaque jour, tous les
deux jours, deux fois par semaine, chaque semaine) ou de la déclencher automatiquement
en temps réel (run it). Dans le premier cas, GoogleAlert envoie par e-mail une liste de

255
Google alerts, terms of use, [Link] consulté le 25 08 2004.
256
[Link]
105
Les agents intelligents sur Internet : enjeux économiques et sociétaux

résultats à intervalles réguliers lorsqu’un nouveau document sur le sujet est indexé.
L’usager doit s’abonner à ce service, posséder un nom d’utilisateur et un mot de passe.

La page d’accueil demande de faire connaître ce site257 et ce service à d’autres


personnes258. Cette forme de marketing viral s’accompagne d’une notice sur le
fonctionnement de GoogleAlert et est envoyée à la personne désignée. Google a pour
objectif d’intéresser le plus grand nombre d’utilisateurs possible selon le principe de l’effet
réseau259. Au demeurant, la firme conçoit tous ses sites d’expérimentation et de service à
valeur ajoutée pour créer un esprit communautaire autour de ses diverses innovations.

Cette fonctionnalité d’alerte représente un service utile pour la veille. Nous l’avons déjà
observé avec Copernic Pro. Ce dernier, cependant, offre un dispositif plus élaboré et
sophistiqué.

Le suivi de l’actualité est possible grâce à GoogleNewsAlerts260, qui, pour l’instant, fait
partie des projets testés par GoogleLabs. Ce service261 permet de paramétrer les thèmes à
suivre. Si un événement se produit, Google envoie un courrier électronique (Mode PUSH) à
l’usager avec des liens vers des sites journalistiques, préparés par GoogleNews. Comme
dans d’autres fonctions expérimentées, l’internaute est invité à fournir des commentaires et
à participer à un forum sur le produit. C’est la méthode développée autour des GoogleLabs.

L’archivage se fait au niveau de la barre d’outils. Le troisième menu conserve les


quarante dernières formulations de requête. On peut soit consulter une liste soit réactiver
une requête. Il est possible de vider cette mémoire en se servant de l’option « effacer
l’historique » située dans le premier menu. Nous avons observé ce dispositif également
chez Copernic.

257
[Link]
258
Google Alert
Tell a friend
Friend’s name
Friend’s e-mail
Suggest my searches to this friend.
259
La valeur d’un réseau augmente en proportion du carré du nombre de ses usagers.
260
En version bêta.
261
[Link]

106
Première partie ─ De nouvelles machines à communiquer

La fonction « communication » permet d’envoyer une liste ou un document à une autre


personne via le courrier électronique. Cette possibilité existe dans le navigateur (Windows).
Il suffit de choisir le menu fichier, puis d’envoyer le document en activant la commande
page par courrier ou lien par courrier. Google n’a donc pas besoin d’intégrer ce dispositif.

Ce moteur fournit d’autres services à valeur ajoutée que Copernic et d’autres logiciels
agents n’offrent pas. Par exemple, GoogleZeitgeist262 propose une page contenant les sujets
les plus populaires (hommes, femmes, thèmes, images), à un moment donné, en fonction du
nombre de requêtes enregistrées. Dans la version américaine, par contre, deux listes sont
visibles : la première affiche les dix thèmes dont le nombre de requêtes est en forte
augmentation (Gaining Queries) et la seconde ceux (Declining Queries) en perte de vitesse.
Il suffit de cliquer sur un lien thématique pour recevoir une liste de résultats classés en
fonction de la popularité des sites.

La connaissance quasi instantanée des usages, tendances et modes favorise le


développement d’interface spécialisée en fonction des goûts observés des internautes.
Ainsi, à partir des données collectées, Google peut présenter un ensemble de services aux
usagers : articles critiques de films (movie :film). Le feedback en temps réel facilite
l’innovation.

On met à notre disposition des graphiques et des statistiques concernant le type de


navigateurs utilisés, les langues de requête ou les thèmes associés à la recherche sur image.
Pour les professionnels du marketing, ce site permet de suivre les tendances des internautes.
Google peut analyser les requêtes pour déceler les intérêts des usagers. Les statistiques
obtenues font peut-être l’objet de transactions commerciales, devenant ainsi une source de
revenus. Si on clique sur un item, on reçoit une liste de résultats présentant les sites les plus
populaires du sujet.

Le fait que les usagers sont impuissants à trouver des informations sans aide a suscité
une autre innovation. Certaines requêtes exigent l’expertise d’un professionnel. Google
Answers est un service payant. Ainsi on peut poser des questions à des chercheurs choisis
par Google. L’utilisateur doit ouvrir un compte au préalable. Le moteur précise ses règles
déontologiques et décline toute responsabilité concernant la validité des réponses. Avant de

262
L’esprit d’une époque, les tendances et les modes.
107
Les agents intelligents sur Internet : enjeux économiques et sociétaux

poser une question, l’usager peut consulter un annuaire affichant des questions récemment
posées.

Google prélève une commission de $ 0,50. Pour déterminer le prix Google donne
quelques conseils en fonction de la rapidité de la réponse, du temps nécessaire pour la
trouver. En effet, Google propose une méthode pour déterminer le prix. L’usager peut
proposer son thème de recherche et le prix qu’il accepte de payer pour le service. Si un
veilleur est intéressé par le sujet, il peut lui offrir ses services. Google assure l’interface de
la transaction et prélève une commission263.

D’autres services sont disponibles : accès aux dictionnaires en-ligne (define :word) ;
correction automatique de l’orthographe des mots de la requête, cotation des valeurs en
bourse (stock : code de l’entreprise), information sur une adresse url (info :), consultation
de l’annuaire téléphonique {pages blanches} (phonebook :nom), personnel
(rphonebook :nom), et professionnel (bphonebook :firm) pour l’Amérique du Nord. Google
permet aussi des calculs mathématiques simples. Il suffit d’entrer les données du problème
à traiter dans la boîte de dialogue.

Google : superagent intelligent ?


La première partie de notre hypothèse directrice pose que les moteurs de recherche
intègrent les fonctionnalités autrefois associées aux agents intelligents décrits plus haut.
Autrement dit, nous sommes amené à nous demander dans quelle mesure Google est
devenu un agent intelligent. Puisque Google offre aux entreprises un moteur de recherche
plus pointu, nous l’avons pris en compte dans le tableau ci-dessous. Notons que Google
possède la plupart des fonctions d’un logiciel agent. Cependant, le classement des résultats
fait défaut dans la version publique. Par contre, Google Viewer, en phase
d’expérimentation, offre un diaporama des résultats d’une requête.

263
Cf : annexe 6.

108
Première partie ─ De nouvelles machines à communiquer

Tableau 1 : Tableau comparatif de Google, Google Entreprise et Copernic Pro264.

Caractéristiques et fonctions des moteurs et des agents Google Google Copernic


Entreprise Pro
logiciels
SOURCES
nombre de sources Base Base 1000+
Google Google
catégories de recherche 120
+ (images) idem
groupe de discussion +
+ +
ajout des domaines optionnels +
+ (scholat)
personnalisation des catégories +
personnalisation des sources (CRÉER, MODIFIER) +
PARAMÉTRAGE
paramétrage du nombre de résultats par moteur ou page + + +
vérification de l’orthographe (des requêtes) + + +
opérateurs (AND, OR AND NOT, NEAR, NEAR/n) + + +
mots composés et phrases entre guillemets + + +
troncature selon moteur de recherche
prise en compte de l’ordre des mots en fonction des moteurs de
recherche interrogés
+ + +
téléchargement ou choix des résultats (en divers formats)
+ + +
date
+ + +
emplacement
INTERFACE ET ERGONOMIE
Barre d’outils + + +
Taskbar (visible avec toute application) + + +
Desktop Search + + +
ANALYSE
analyse de pages Web +
extraction des dernières dates de modification +
extraction des concepts-clés dans les pages Web + + +
élimination des résultats non pertinents + + +
détection des langues + + +
traduction automatique de pages (ou service en-ligne) + + +
résumé des documents récupérés +
indication des sources à l’origine du résultat
rechercher dans la liste des résultats + + +
surlignage des mots-clés + + +

264
Tableau conçu par l’auteur de cette thèse.
109
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Suite….

Caractéristiques et fonctions des moteurs et des agents Google Google Copernic


Entreprise Pro
logiciels
FILTRAGE DES RESULTATS
élimination des doublons +
vérification des liens et élimination des liens morts +
élimination des bannières publicitaires + + +
filtrage par région +
par domaines à inclure + + +
par domaines à exclure + + +
par langue + + +
par date de modification de la page (par +
période)
sites adultes +
+
CLASSEMENT DES RÉSULTATS
pertinence + + +
ordre alphabétique +
source +
date +
contenus d’annotation +
annotation des résultats +
VEILLE
mise à jour de la recherche ou veille + + +
calendrier de veille + + +
alerte par mail sur les nouveautés + + +
veille automatisée des changements dans une page +
surlignage des changements dans une page sauvegardée +
fonction aspirateur +
ARCHIVAGE DE LA RECHERCHE
• historique (dans + +
toolbar)
• classement des documents
• recherche d’un document

COMMUNICATION
partage des résultats par e-mail par + +
navigateur
édition d’un rapport (reporting) +

110
Première partie ─ De nouvelles machines à communiquer

Quels critères faut-il appliquer pour affirmer que Google correspond aux définitions
données de l’agent intelligent à la fin des années quatre-vingt-dix ? Pour répondre à cette
question, il faut examiner Google en fonction de son environnement, de la dichotomie
PUSH/PULL, ou client – serveur. Ensuite il faut le confronter à la typologie des tâches
effectuées. Enfin, il faut l’étudier par rapport aux attributs d’un agent : autonomie,
apprentissage, coopération, délégation, proactivité, raisonnement, réactivité,
communication et mobilité.

L’environnement de Google est la totalité des pages accessibles sur Internet. Cependant
le moteur étend sa présence sur les PC des usagers par le truchement de la barre d’outils et
des cookies. Sa technologie intègre le PUSH comme le PULL, notamment avec la fonction
alerte. Elle fonctionne du côté serveur mais admet une interface permanente sur
l’ordinateur de l’internaute et la possibilité pour les programmeurs de développer leurs
propres codes et interfaces.

Si l’on examine Google en fonction des tâches, on constate que ce dernier offre un choix
important d’agents. Le filtrage se fait par l’interface préférences ou par un langage de
codes265. Les algorithmes comme PageRank réduisent considérablement le nombre de
documents non pertinents. Différentes zones de la base d’indexation sont accessibles
facilement comme images, groupes, annuaires ; d’autres par code, bourse (stock), annuaire
téléphonique (phonebook) et livres ([Link]). Chaque zone comporte une page
d’accueil spécialisée. Avec Froogle, le moteur intègre un agent comparateur de prix.

Néanmoins, Google ne fournit pas un aspirateur de sites mais conserve en mémoire la


dernière version des documents indexés. Ainsi peut-on consulter une page même retirée du
Web. Googlealert ou Googlenewsalert correspondent à la définition d’un agent livreur
d’information (delivery agents). Cette liste n’est pas exhaustive car de nouveaux types
d’agents peuvent apparaître régulièrement.

Examinons Google en fonction des critères abstraits. Le moteur est autonome dans la
mesure où l’intervention humaine n’existe qu’au niveau de la programmation et de la
recherche. L’indexation se fait automatiquement et le classement des résultats dépend d’un
algorithme fondé sur la popularité de la page (liens pointant vers celle-ci) et les

265
Cf. annexe 6.
111
Les agents intelligents sur Internet : enjeux économiques et sociétaux

comportements des internautes observés et mémorisés. Le système apprend en fonction des


interactions entre les usagers et les documents choisis, les mots-clés utilisés. La coopération
se situe au niveau du crawl. Les transactions se font par délégation dans le cadre des agents
comparateurs de prix. La proactivité comme la réactivité relèvent de la technologie PUSH
intégrée dans le dispositif d’alerte. Le raisonnement est présent dans le classement des
documents proposés. La communication et la mobilité caractérisent l’ensemble du
processus.

Confrontons Google avec la définition de l’AFNOR266. Lors d’une requête le moteur


adapte son comportement en fonction des termes choisis et mémorise ses expériences pour
améliorer les recherches documentaires futures. Ainsi est-il capable d’apprendre. Au cours
du temps le moteur ajoute des fonctions supplémentaires de traitement, de contrôle, et de
transfert d’informations en proposant de nouvelles interfaces spécialisées et en développant
de nouvelles techniques d’analyse.

Il nous semble juste d’affirmer que des fonctions et des caractéristiques de l’agent
intelligent s’intègrent dans ce moteur de recherche. Ainsi validons-nous la première
hypothèse. A présent, il nous faut déterminer pourquoi Google a connu un tel succès.

Avantage compétitif de Google


Le succès de Google, à notre avis, s’explique par l’excellence de sa technologie, son
esprit de pionnier d’Internet et la création d’une communauté épistémique.

La communauté d’usagers, associée au moteur, se construit autour du laboratoire de la


firme, GoogleLabs, regroupant l’ensemble des dispositifs testés et mis à la disposition des
internautes. On insiste sur l’importance du feedback en provenance de l’usager et on avertit
contre les erreurs éventuelles de fonctionnement. L’internaute est invité à renvoyer ses
commentaires et à participer au forum spécialisé. On y trouve les messages postés par les
autres participants et les FAQ. La firme met en avant le côté ludique (playground) et la
nécessité de participer à l’amélioration du produit.

Le lien « Envoyez-nous vos commentaires » (Give us feedback) permet d’envoyer un


commentaire à propos du programme testé, tandis que « Foire aux questions » (Discuss

266
Cf. supra : p. 77.

112
Première partie ─ De nouvelles machines à communiquer

with other) dirige l’internaute sur le forum approprié relatif à chaque innovation267. Les
messages postés peuvent être consultés par tout le monde.

Plusieurs innovations sont à l’essai, mais, très rapidement, elles finissent par s’intégrer
dans le corps du moteur. GoogleNews (agrégateur de contenu), par exemple n’est plus à
l’état expérimental. On peut énumérer également Google Compute, Google Deskbar,
Froogle Wireless, Google Sets et Google Voice.

Google Compute, par exemple, est un projet collaboratif. On demande aux usagers de
partager leur ordinateur avec Google. Ainsi les chercheurs de la firme peuvent augmenter
leur puissance de calcul en se servant d’ordinateurs non utilisés. Google Deskbar est un
dispositif qui s’intègre dans la barre des tâches de Windows. L’usager peut, à partir de
n’importe quelle application, entreprendre une requête sur Google sans pour autant quitter
son document ou démarrer Explorer. Froogle Wireless prépare une interface pour
téléphonie mobile connectant directement au comparateur de prix. Google Sets a pour
ambition de comprendre les relations sémantiques entre des mots pour améliorer la
traduction automatique. Quant à Google Voice, ce projet cherche à rendre possible le
déclenchement d’une requête à partir du téléphone (fixe ou mobile).

Les usagers de Google (googlers selon l’expression utilisée par le moteur) se divisent en
plusieurs groupes. Tout d’abord, la masse d’usagers qui se servent de Google et envoient à
leur insu des informations sur leurs goûts et usages au moteur. Ensuite, les usagers qui se
servent des fonctionnalités avancées et téléchargent la barre d’outils. Enfin, un petit groupe
qui participe aux jeux et à l’expérimentation de GoogleLabs et s’intéresse activement aux
divers forums. Le feedback permet au moteur d’anticiper les problèmes ou les besoins des
usagers. Par ailleurs, le fait de télécharger un logiciel api devrait permettre aux
programmateurs expérimentés d’exploiter les ressources du moteur et d’innover à leur tour.
Ainsi Google a su créer ce que Nicolas CURIEN appelle l’effet de club de
consommateurs.268

267
En ce qui concerne Google NewsAlerts, le lien renvoie à cette adresse :
[Link]
268
Nicolas CURIEN, Économie des réseaux, Paris, La Découverte, p.19-40.
113
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Nous représentons par un schéma l’avantage compétitif de Google. Nous estimons que
les caractéristiques d’innovation, de puissance algorithmique, de mémoire, de communauté
d’usagers mises en place à partir d’un modèle économique fondé sur la gratuité et l’échange
expliquent en grande partie le succès de Google. Ce schéma permet d’anticiper les
évolutions. Par exemple, les interfaces spécialisées verront le jour en fonction de la
demande des utilisateurs repérée par le moteur dans les forums et grâce au feedback
permanent des requêtes.

114
Première partie ─ De nouvelles machines à communiquer

INNOVATION
(GoogleLabs)
Desk Bar
Tool Bar
Desktop search
Interfaces spécialisées

PERFORMANCE MODELE MEMOIRE


ECONOMIQUE
PageRank Indexation
gratuité-echange d’informations
Rapidité : Pertinence Tous formats
Adwords
Fonctionnalités Images, livres, bibliothèques
Adsense universitaires
Simplicité de l’interface
Cache
ESPRIT
COMMUNAUTAIRE
(bêta testeurs, développeurs
de programme en api, forums)
Open source
Bouche à oreille

Figure 1 : Avantage compétitif de Google

Le succès de cette firme peut s’expliquer par cinq facteurs : la performance, la


dynamique de l’innovation, la création de communautés épistémiques, la mémoire et le
modèle économique.

Examinons la performance du moteur. L’algorithme (PageRank) est puissant, proposant


à l’usager le classement des documents les plus pertinents en un temps très court (de l’ordre
de 0,13 seconde), ainsi le moteur réduit l’entropie de la requête.

L’innovation permanente se fait d’une manière ludique avec la complicité des


internautes regroupés en communautés autour de divers services à l’état expérimental, en
fournissant des commentaires ou en participant aux forums adéquats. En règle générale,

115
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Google devance les moteurs concurrents en introduisant de nouvelles interfaces spécialisées


pour la téléphonie, les zones géographiques, le monde scientifique et universitaire.

La mémoire joue probablement un rôle essentiel. En effet, Google indexe plus de trois
milliards de pages et en conserve la totalité en mémoire-cache (en plein texte). Le moteur
fonctionne comme une vaste mémoire des activités et des connaissances de l’humanité. Si
les documents sont dispersés à travers le Web, Google les préserve et les centralise dans ses
bases (repositories), ce qui donne naissance au mythe de la bibliothèque universelle. Celui-
ci, d’ailleurs, fait partie de la stratégie de communication de la société californienne. Sa
mission déclarée, en effet, est d’organiser l’information de la planète en la rendant
universellement utile et accessible.

Le modèle économique est très significatif. Grâce à la gratuité, les internautes participent
au développement technologique dans un esprit d’échange caractéristique des pionniers
d’Internet. Google se finance par la publicité, le référencement, les diverses catégories
d’adwords et la vente de serveurs de portails aux entreprises. Plus le nombre d’usagers
croît, plus le système prend de la valeur269, encourageant ainsi les entreprises à se faire
référencer et à acheter des mots aux enchères. Par ailleurs, la vente de ces derniers constitue
une innovation économique. Pour la première fois, on confère à un élément sémantique une
valeur marchande.

Les dispositifs de portail professionnel de Google possèdent un grand nombre de


caractéristiques d’un agent intelligent du type Autonomy, capable de gérer les flux des
informations d’une entreprise et de faciliter la veille économique et stratégique sous toutes
ses formes.

Des services à valeur ajoutée devraient émerger dans un avenir proche, soit développés
par la firme elle-même, ou par partenariat avec d’autres sociétés qui se serviront de son
logiciel api.

Le succès de Google s’explique en partie par la manière dont le moteur a su


communiquer avec le public et avec les internautes. Le bouche à oreille a probablement
joué en faveur du moteur dans sa phase de diffusion (quatre ans). Ses communiqués de
presse sont relayés par les journaux spécialisés Internet en-ligne. Qui plus est, la firme a

116
Première partie ─ De nouvelles machines à communiquer

joui d’une forte médiatisation lors du Forum économique de Davos en 2004 et lors de sa
mise en Bourse en août de la même année.

Ainsi, nous entrevoyons l’émergence d’un modèle interactif entre la technique,


l’économique et le social. L’innovation et la performance de la technologie attirent les
usagers qui fournissent des renseignements précieux sur le fonctionnement, permettant
ainsi de perfectionner le dispositif et d’anticiper la demande de services et d’interfaces. Le
succès du moteur attire les annonceurs et augmente les recettes publicitaires. Il attire
également les investisseurs. Ainsi le moteur peut financer de nouvelles innovations,
acquérir d’autres sociétés high tech et devancer ses concurrents. Il jouit d’une image
favorable auprès des médias et souvent crée l’événement.

Pour conclure, Google nous semble avoir intégré et développé à son tour la technologie
agent. Afin d’améliorer l’interface et d’offrir plus de fonctions aux usagers, la firme a mis
en place un dispositif informatique téléchargeable sur le PC de l’internaute. Ainsi le moteur
augmente ses capacités par sa présence sur l’ordinateur de l’utilisateur. Nous examinerons
les conséquences de cette convergence dans notre troisième partie. Passons à présent au
concept de barre d’outil, puis celui de Desktop Search.

269
Effet réseau.
117
Les agents intelligents sur Internet : enjeux économiques et sociétaux

1.5. BARRES D’OUTILS


Nous avons constaté dans le chapitre précédent qu’un moteur de recherche ne permet
pas directement l’analyse sémantique des documents ni la gestion des résultats d’une
requête. A la différence des logiciels agents, les moteurs n’ont pas prévu de fonctions de
classement et de regroupement des documents récupérés sur Internet. Toutefois, la barre
d’outils et le taskbar270 pourraient améliorer la gestion de l’information sur le PC de
l’utilisateur. Néanmoins, l’installation de ce type de produit implique une présence
permanente du système informatique (moteur ou portail) sur le disque dur et sur l’écran de
l’internaute. Il est possible que certains dispositifs laissent entrer des programmes espions
(spyware).

De surcroît, le Desktop Search (ou moteur interne) proposé depuis octobre 2004 par
Google indexe et organise le disque dur. Ainsi, la documentation de l’utilisateur devient
facilement accessible. Mais la présence du moteur sur l’ordinateur de l’usager se voit
renforcée.

La seconde partie de notre hypothèse directrice pose que les moteurs de recherche
étendent leur technologie sur le PC de l’usager. Nous nous efforcerons de valider cette
hypothèse dans ce chapitre.

Sans détailler davantage pour l’instant les aspects économiques de la relation usager /
moteur ou portail, qui seront étudiés dans notre troisième partie, on peut d’ores et déjà
préciser que l’objectif de tout portail est, selon l’expression de Josiane JOUËT, d’« agréger
des publics pour les faire passer par leur point de passage obligé, dans le but de
maximiser, là aussi, leurs revenus publicitaires271. » Ainsi faut-il que l’usager soit fidélisé
et qu’il débute une requête en passant par le même moteur de recherche à chaque fois. S’il
achète un produit, s’il clique sur un lien publicitaire, le moteur gagne de l’argent

270
Le taskbar reste ouvert quel que soit le programme utilisé. Il se situe en bas de la page de Windows.
271
Josiane JOUËT, « La pêche aux internautes », Hermès, 37, 2003, p. 203.

118
Première partie ─ De nouvelles machines à communiquer

directement ou indirectement. La publicité, en effet, est la principale source de ses


revenus272.

Le chiffre d’affaires publicitaires des moteurs de recherche en 2003 est estimé à 3


milliards de dollars aux Etats-Unis273 et il va croître dans les années à venir. On peut
s’attendre à une forte concurrence entre portails et moteurs car l’enjeu est de taille274.
Environ un tiers du budget publicitaire d’Internet passe par les moteurs275, soit deux
milliards de dollars en 2003. La valeur ajoutée pour l’usager sera créée par les types de
services offerts : systèmes de sécurité intégrés, blocage des pop-ups, historique des
requêtes, e-mail gratuit, blocage du courrier non désiré (spam), fonctions d’aide au
processus de requête ou d’analyse des listes et des documents, indexation des fichiers et du
courrier.

Pour fidéliser les internautes, pour accélérer le processus de recherche documentaire,


l’offre d’une barre d’outils ayant un nombre de fonctionnalités et de services à valeur
ajoutée intégrés semble un moyen efficace. Ce dispositif constitue un point stratégique
important car à partir de celui-ci d’autres programmes pourraient être envoyés sur
l’ordinateur de l’usager. Cet outil va probablement évoluer, notamment avec un dispositif
de recherche interne.

Il existe déjà des programmes pour bloquer les pop-ups ou avertir l’internaute lorsqu’un
programme-espion pénètre sur son disque dur276. Il nous semble que la barre d’outils

272
Recettes publicitaires de Google en 2003 : 95% des recettes d’après Intelligence Center. Revenus nets : 105,6
millions de dollars, et chiffre d’affaires : $961,9 millions. Yahoo pour la même période, chiffre d’affaires 1625,1
millions de dollars et revenus nets $237,9 millions. [Link]
consulté le 28 juillet 2004.
273
Lev GROSSMAN, “Search and destroy” Time, 2 février 2004, p. 36-39.
La publicité en-ligne ne représente que 3% environ des dépenses globales loin derrière la presse et la télévision.
Source : [Link] consulté le
27octobre 2004.
274
Il faut toutefois relativiser. Le chiffre d’affaires de Microsoft pour l’année fiscale 2003 (close au 30 juin
2004) est de 36,84 milliards de dollars. Source : communiqué de presse, le 23 juillet, 2004.
[Link]
consulté le 4 8 2004.
275
Nathalie BRAFMAN, « La bataille entre Google, Microsoft et Yahoo ! est lancée », Le Monde du 14 mai
2004, p. 20.
276
Innovation de Yahoo en 2004. Scarlet PRUIT « Yahoo adds antispyware to toolbar), Infoworld, 27 mai 2004,
[Link] consulté le 22 juillet 2004. On peut
télécharger la version bêta à partir du site de Yahoo, [Link] consulté le 04 08 04.
119
Les agents intelligents sur Internet : enjeux économiques et sociétaux

constitue un mini-portail d’information orientant les internautes vers les chaînes


d’information (presse, télévision), vers des services de messagerie et de courrier, et surtout
vers des sites commerciaux et des comparateurs de prix. L’interface reste en permanence
sur le navigateur de l’usager. En général, elle est simple, intuitive, évolutive et surtout
modulable. D’autres fonctions peuvent s’ajouter au fur et à mesure que les éditeurs les
inventent277. Et les internautes peuvent les tester.

L’avantage principal d’une barre d’outils, c’est que l’usager peut à tout moment, au
cours de sa navigation, se connecter au moteur et recevoir une présentation des résultats
(par liste ou par d’autres moyens de représentation278) tout en envoyant des informations au
moteur ou portail sur ses propres pratiques. Les agents de profilage utilisent celles-ci à des
fins de ciblage publicitaire. La plupart des moteurs279 et des métamoteurs offrent ce
dispositif d’interface, notamment Yahoo, Altavista, Vivisimo, Webcrawler, Teoma et
MSN. Copernic propose également depuis 2004 sa version correspondant de très près aux
fonctions décrites plus haut.

La barre d’outils engendre un véritable échange d’informations. Examinons les


problèmes d’organisation et d’ergonomie subis par l’internaute et les solutions proposées
par la barre d’outils.

277
Le feedback permanent de l’usager vers le moteur permet de comprendre et d’anticiper la demande en temps
record, donc d’innover rapidement.
278
Cartographique ou diaporama.
279
Il existe une barre d’outils créée par la firme Softcities pour alltheweb. Cependant Copernic Desktop Search
se sert d’alltheweb comme moteur externe. Ainsi, alltheweb s’intègre dans ce dispositif.

120
Première partie ─ De nouvelles machines à communiquer

PROBLEMES D’ORGANISATION ET D’ERGONOMIE

Organisation du disque dur


Si les moteurs de recherche améliorent l’organisation du Web grâce à la puissance de
leurs algorithmes de l’indexation des pages consultables, il reste cependant un problème de
taille pour l’usager. Comment gérer la documentation récupérée ? Comment classer les
adresses Web ? Comment trouver rapidement un document ? Comment analyser son
contenu ? Comment éliminer les nuisances comme les spams, les pop-ups, les mouchards
ou programmes-espions ?

Ergonomie de la recherche d’information


Le processus de recherche lui-même pose problème. Comment aider l’usager à mieux
cibler ses requêtes, à analyser rapidement les contenus des listes ou les pages, à trouver
d’un clin d’œil le passage recherché dans le corps d’un document ? L’un des objectifs de la
barre d’outils est de faciliter ces processus. Le Desktop Search complète le dispositif en
réorganisant le disque dur.

SOLUTIONS APPORTEES PAR LES BARRES D’OUTILS


Si l’on examine tout d’abord les barres d’outils proposées par Google, Yahoo, AltaVista,
Webcrawler, Teoma, Vivissimo et MSN, on constatera que ces outils comportent des
fonctions de portail, de PUSH, parfois de gestion des liens, d’aide à l’analyse des listes des
résultats et des documents, d’élargissement de la requête vers d’autres sources
d’information, de réduction de nuisances et de programmes de sécurité.

Barre d’outils de Google


Ce dispositif est une innovation de la firme californienne. La toolbar a été lancée le 11
décembre 2000. Elle est gratuite. Elle s’étend du haut à gauche de la page Web ouverte sur
Explorer vers la droite. Ainsi elle suit l’orientation de la lecture. Elle permet à tout moment
de faire une requête sans aller sur la page d’accueil de Google. C’est l’un des facteurs
importants d’ergonomie de ce dispositif. L’internaute ne perd pas de temps et son usage
devient rapidement un réflexe. Nous avons constaté par ailleurs280 que le temps joue un rôle

280
Cf. infra : Deuxième Partie.
121
Les agents intelligents sur Internet : enjeux économiques et sociétaux

important dans l’appropriation d’un logiciel. La rapidité entraîne son adoption. L’usager, en
contrepartie, autorise Google à suivre ses démarches281. L’image qui suit présente la barre
d’outils telle qu’elle apparaît sur la page de téléchargement.

Image 3 : Écran Google – barre d’outils (informations)

La barre est composée d’icônes et de menus déroulants. Les rubriques sont structurées
en arborescence. Ainsi la barre est-elle omniprésente et prend peu de place dans la fenêtre
du navigateur. Le premier menu sous l’icône Google donne accès à la page d’accueil du
moteur, aux liens préétablis (Recherche Avancée, Recherche d’Image, Groupes, Répertoire,
Actualités, [Link], Zeitgeist, Préférences de recherche et Outils Linguistiques), aux
options et à la fonction « effacer historique ». Dans la rubrique Aide s’ouvrent quelques

281
Il faut cliquer sur un de ces liens avant de télécharger le logiciel. L’usage peut refuser la collecte de données
le concernant.
“You must select one of those options before clicking next.
·Enable advanced features (anonymous information to be sent to Google)
·Disenable advanced features (no information to be sent to Google)”

122
Première partie ─ De nouvelles machines à communiquer

liens vers des informations sur la confidentialité, la possibilité de la désinstaller et d’autres


informations à son propos. L’importance réside dans la liberté de pouvoir à tout moment
supprimer le dispositif. Et cette démarche est facile.

A droite de l’icône Google, se situent la boîte de dialogue et un menu déroulant


contenant l’historique des requêtes. L’usager peut relancer une recherche, fonction déjà
signalée chez Copernic. En effet, la boîte « recherche web » permet d’activer ou de
réactiver une requête.

Le menu suivant, « Recherche Web » ouvre la possibilité de consulter les pages de


Google spécialisées dans l’image, l’annuaire, les groupes (forums) et les actualités. Il s’agit
en réalité d’un ensemble de zones du moteur intervenant dans des domaines spécifiques.
Ces derniers excluent toute autre forme de document et ainsi réduisent considérablement la
surcharge. En effet, une recherche sur Google Images ne renvoie qu’une photographie ou
autre image ; sur Actualités, seuls se présentent des articles de presse. La fonction
Recherche Site permet de chercher un mot dans la page ouverte.

Il est fort possible que d’autres domaines soient accessibles par ce type de moteur,
notamment celui des ouvrages publiés. Google282 est en pourparlers avec certaines maisons
d’éditions pour pouvoir indexer les œuvres entrées dans le domaine public et d’autres dont
les droits sont toujours en vigueur. L’usager pourrait consulter ou télécharger certains
d’entre eux moyennant paiement.

La version américaine de la barre donne accès au comparateur de prix Froogle. Ce


service n’existe pas encore en France. Celui-ci est cependant extrêmement important dans
la mesure où il envoie l’internaute vers les sites marchands, et par conséquent, joue un rôle
essentiel dans le financement de l’entreprise.

Une icône à droite du menu précédent oriente l’usager vers le site d’actualité de Google.
La rubrique « A la une » présente une liste de nouvelles rapidement mise à jour. Un lien à
gauche invite l’usager à se servir de la fonction d’alerte du service (agent de PUSH). Il n’y
a pas pour l’instant de possibilité de personnaliser l’actualité à la différence d’autres sites
tels que ceux de CNN, de la BBC ou de Yahoo.

282
Cf. Cf. infra. Troisième partie, chapitre trois.
123
Les agents intelligents sur Internet : enjeux économiques et sociétaux

L’icône « i » qui suit donne à l’internaute l’occasion d’élargir sa recherche vers les
pages similaires et les pages liées. Il s’agit de pages qui émettent des liens vers celle
consultée ou qui reçoivent des liens en provenance de cette même page. Google part du
postulat que les pages hyperliées partagent les mêmes centres d’intérêt ou peuvent apporter
des informations complémentaires. Cette fonction favorise la recherche heuristique
d’information. La boîte de dialogue permet de faire une recherche à partir de mots-clés.

L’icône « B » nous semble extrêmement importante. Elle bloque les pop-ups qui
risquent de gêner l’internaute lors de ses recherches. Cette fonction peut être désactivée. Le
nombre de publicités non désirées s’affiche à gauche de l’icône.

L’icône « option » s’ouvre sur une boîte de dialogue. L’internaute peut choisir les
fonctions présentes sur la barre d’outils. Si on active la fonction PageRank qui indique le
score attribué par Google à la pertinence de la page, un message s’affiche : « vous êtes en
train d’activer le bouton qui a une incidence sur la confidentialité des informations. »
L’usager est invité à cliquer sur le bouton Aide. Il est renvoyé vers la page de Google
présentant sa politique de protection de la vie privée et de la confidentialité. En d’autres
termes, l’usage de cette fonction entraîne un échange d’informations entre le moteur et
l’utilisateur283. Toutefois ce dernier en est informé.

Les deux icônes suivantes ajoutent des options d’analyse du document consulté. La
première, un stylo jaune, surligne les mots-clés de la requête. Il est possible de parcourir le
texte rapidement à la recherche de phrases pertinentes. La seconde permet de visualiser un
mot d’une manière linéaire. En cliquant sur l’un des mots de la requête, présentés à droite,
le terme apparaît sur la page. L’œil parcourt le document du haut en bas en mode de lecture
normale (pour un Occidental). Les mots de la requête apparaissent en couleur à droite. Il
suffit de cliquer sur l’un ou l’autre et celui-ci est surligné sur la page ou sur la liste. Ainsi,
l’usager peut descendre la page lentement et examiner les occurrences du terme choisi.
Cette fonction augmente la capacité d’analyse du lecteur.

Les fonctions présentées ci-dessus facilitent le processus de requête et accélèrent le


temps de recherche. Depuis octobre 2004, Google propose une solution concernant

283
Ce problème fera l’objet d’une section de notre Troisième Partie.

124
Première partie ─ De nouvelles machines à communiquer

l’organisation des signets ou la gestion des documents téléchargés. Cependant, pour ce


service, il faut télécharger le Desktop Search. Le service d’e-mail, proposé par d’autres
comme Yahoo, est à l’étude. Ce dispositif devrait offrir aux usagers un moteur de recherche
spécialisé dans la gestion du courrier électronique. Ce service sera financé par la publicité.
En effet, après une analyse du contenu des messages, des liens sponsorisés seront intégrés
dans le courrier284 ! Il s’agit d’un service à valeur ajoutée. On peut se demander qui en est
le destinataire.

Il est intéressant d’examiner les fonctions de la version américaine de la barre d’outils,


pas encore disponibles en France. La fonction « AutoFill » a pour objectif de remplir
automatiquement un formulaire. Ce dispositif est d’autant plus inquiétant qu’il enregistre
un ensemble de données personnelles considérable : le nom, l’adresse e-mail, le numéro de
téléphone, l’adresse complète, l’adresse de réception d’un produit acheté en-ligne. Il est
possible de fournir des informations sur sa carte de crédit (add/edit Credit Card button). On
constate assez aisément que cette fonction, comme la précédente, est destinée à favoriser
les transactions en-ligne. Elle exige un degré certain de confiance ou d’insouciance de la
part de l’internaute !

Le « Voting Button » permet aux internautes de porter un jugement (binaire) sur un site
ou une page, dispositif utile pour le moteur car l’internaute envoie du feedback concernant
la pertinence ou l’intérêt du site. Comme la précédente, la fonction « Blog it » a pour
objectif de susciter des commentaires à propos d’un site. Elle implique une inscription et un
compte chez [Link] au préalable.

Google fournit l’exemple du portail d’information. La firme prépare d’autres services


liés à la barre d’outils comme le courrier (Gmail). Mais pour l’instant le moteur se
concentre sur la recherche informationnelle en mode PUSH comme en mode PULL.

Pour des fonctions plus sophistiquées, il est nécessaire de visiter la page de recherche
avancée. Cette page est accessible par le biais de l’icône Google. Il existe un lexique

284
Gmail. La confidentialité du courrier est mise en cause. En effet, l’usager ayant un compte gmail autorise le
moteur à analyser automatiquement et sans intervention humaine le contenu de ses e-mails. Cependant, l’usager
qui envoie un message sans pour autant s’être abonné à ce service, risque de subir le même traitement. La
discussion est déjà ouverte entre Google et les autorités américaines et européennes sur ce point épineux.
125
Les agents intelligents sur Internet : enjeux économiques et sociétaux

permettant d’utiliser des termes spécifiques285 pour peaufiner une requête. A titre
d’exemple, le mot réservé « define » suivi du colon (:) donne accès aux définitions des
dictionnaires en-ligne. Cependant cet usage fait partie de ceux qui exigent formation et
expertise.

Google offre un taskbar qui est lisible quelle que soit l’application ouverte. Si l’usager
travaille sur Microsoft Word, le dispositif est présent sur la barre de tâche de cette
application, en bas de la page. Ainsi l’internaute peut consulter Google pour chercher une
information ou vérifier le sens ou l’orthographe d’un mot sans ouvrir son navigateur.
Google fournit un mini-navigateur. Par conséquent, l’usager peut contourner Explorer. Par
ailleurs, certains commentateurs soupçonnent Google de concevoir son propre navigateur
(gbrowser) et de concurrencer Microsoft dans ce domaine.

Barre d’outils de Yahoo


Le portail américain a très rapidement suivi l’exemple de son concurrent. La barre de
Yahoo offre un service de portail en plus d’un dispositif de moteur de recherche. L’usage
de certaines fonctions intéressantes implique de la part de l’usager une inscription gratuite
auprès de la firme. L’internaute inscrit son nom d’usager, son adresse e-mail et choisit un
mot de passe.

Nous présenterons le dispositif de gauche à droite. Le premier bouton, Y !, renvoie


l’internaute vers la page d’accueil de Yahoo. Le menu déroulant à droite donne accès aux
principaux services de portail de Yahoo : Mail, MyYahoo (la page personnalisée de
l’usager), Finance, Actions en Bourses etc.

Une icône (crayon jaune) permet de personnaliser la barre en fonction des intérêts de
l’utilisateur (financier, recherche d’information). La boîte de dialogue offre la possibilité de
faire une requête par mots-clés. Le menu déroulant permet de choisir le domaine (Image,
Groupe, News) comme celui de Google. Au demeurant, on remarque des nouveautés
comme des Pages Jaunes, Achat (Shopping), Dictionnaire, Cartes (Maps), Bourse (Stock
Quotes). Il s’agit de moteurs ou d’annuaires spécialisés dans un domaine.

285
Cf. annexe 6.

126
Première partie ─ De nouvelles machines à communiquer

Dans ce menu, le portail offre la possibilité de créer, sur son serveur, un carnet
d’adresses accessible par mot de passe. L’internaute peut ainsi consulter ce répertoire à
partir de n’importe quel ordinateur. Il est d’ailleurs compatible avec un Palm Pilot et
Microsoft Outlook. Malheureusement pour lui l’internaute fournit des informations
confidentielles.

Comme Google, Yahoo offre une icône qui permet de bloquer les pop-ups et une autre
surligne les mots-clés. Cependant, à la différence de Google, le bouton Y ! Bookmarks
permet d’enregistrer des signets et de les organiser en-ligne, donc de les rendre consultables
en permanence. Ce dispositif, en effet, introduit le concept d’ubiquité.

Le bouton « MyYahoo » présente un menu déroulant permettant d’éditer une page


personnalisée. D’autres boutons suivent, donnant accès à des services tels que « Finance,
Courrier, Actualités, Achat, Voyage, Divertissement, Agenda, Carnet d’adresse et
Quitter ».

Une fonction Notes offre la possibilité d’ouvrir un journal en-ligne et d’entrer des
commentaires. Elle correspond en partie à la fonction Blog de Google. La différence est
qu’un blog est visible et lisible par tous tandis que le journal chez Yahoo reste strictement
personnel. Cependant, l’internaute peut partager son journal avec autrui ou l’utiliser dans le
cadre d’un projet collaboratif.

Cette barre d’outils va plus loin pour capter des informations sur l’usager tout en lui
offrant des services multiples. Si Yahoo exploite les informations données, cela facilite
surtout le profilage à des fins publicitaires. Cette barre d’outils, qui intègre un logiciel anti-
espion en version bêta, est caractéristique d’un service de portail avec messagerie,
informations boursières et pages d’actualités. Elle permet également de conserver sur le
serveur des informations personnelles universellement accessibles, d’organiser les signets
et d’analyser les documents à partir de mots-clés surlignés. Ce dispositif contribue à la
réduction de surcharge informationnelle.

Autres barres d’outils


Les autres barres d’outils examinées offrent certains des services décrits et analysés ci-
dessus. Nous nous limiterons à présenter et à commenter les quelques fonctions originales
proposées.

127
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Le métamoteur Vivissimo offre très peu de fonctions. AltaVista propose un service de


traduction de la page consultée sur le site Babel Fish Translation, nom à résonances
bibliques. Comme dans la Tour de Babel, la communication présente quelques difficultés
car la traduction est peu élaborée et reste au niveau du mot à mot. Toutefois, ce type de
service devrait se développer en s’améliorant et apportera des avantages pour l’usager
comme pour le moteur.

Le métamoteur Webcrawler offre des liens vers les pages jaunes et blanches, comme
Yahoo, et un ticker286 qui présente les actualités de Fox News et de ABC News. Il existe
une option, SearchSpy, qui envoie vers l’usager des titres d’articles liés aux thèmes de la
recherche en cours, en mode PUSH.

La barre d’outils de Teoma offre une connexion à un dictionnaire (Merriam Webster).


Cependant, elle n’apporte pas non plus d’innovations importantes. De même, la barre de
Microsoft, MSN, n’ajoute pas de fonctionnalités intéressantes.

Notons que certains logiciels sont conçus pour éliminer les traces qu’un usager laisse sur
son PC, traces induites par la barre d’outils. Le logiciel History Sweeper287, par exemple,
efface les traces d’activités hors ligne et en-ligne. Ce programme fonctionne avec les barres
de Google, de Yahoo et de MSN. D’autres programmes pourraient voir le jour en
partenariat avec les moteurs et les métamoteurs.

Pour réduire l’entropie du disque dur, la barre d’outils ne suffit pas. Il faut y ajouter un
moteur de recherche interne qui indexe et qui permet de faire des requêtes à partir de mots-
clés. Ainsi la technologie des moteurs de recherche devient disponible sur l’ordinateur de
l’usager, lui permettant de retrouver des documents perdus dans les fichiers de son disque
dur.

Moteurs de recherche interne


Google a préparé un moteur de recherche interne pour Gmail et a lancé le 14 août 2004
un moteur de recherche interne pour PC, Google Desktop Search. Bien avant cette date,
Microsoft Windows XP fait une recherche interne à partir de mots-clés et fournit de fichiers

286
Ticker: barre d’information déroulante de gauche à droite, comportant des nouvelles, des actualités, des
informations boursières.
287
Site: [Link] consulté le 4 août 2004.

128
Première partie ─ De nouvelles machines à communiquer

contenant ceux-ci. Le 31 août 2004, Copernic avait lancé un logiciel Desktop Search. Ce
programme permet de lancer une requête en local. S’affiche en quelques instants une liste
de fichiers contenant les termes spécifiés. Si on clique sur l’un d’eux, la page du document
contenant les mots-clés s’ouvre sur un second écran situé en dessous du premier. Ainsi est-
il possible de consulter un texte précis. A partir de l’interface de ce logiciel, on peut faire
une requête sur Internet par le moteur alltheweb, lancer une recherche dans son courrier
électronique, ses fichiers de musique ou d’images et des sites Web enregistrés dans les
signets. D’autres systèmes, professionnels, du type Arisem et Autonomy font de même
mais leur prix reste très élevé288.

Desktop Search de Google


A la suite de Copernic, Google a lancé sa version bêta du Desktop Search le 14 octobre
2004. Le dispositif indexe le disque dur de l’utilisateur lui permettant de trouver par mots-
clés ses documents, signets, e-mails ou images, organisés et classés par date ou par
pertinence comme n’importe quelle autre requête. L’image d’écran ci-dessous montre la
nouvelle interface liant documents personnels et ressources du Web.

288
Cf. annexe 5.
129
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Image 4 : Écran Google Desktop Search (page d’accueil)

L’usager peut passer facilement d’une recherche interne à une requête sur le Web
(Images, Groupes, Annuaire) sans être obligé de reformuler les termes de celle-ci.
Lorsqu’on cherche un document sur Internet, le moteur affiche également le nombre de
documents du disque dur contenant les mots-clés et présente une liste de liens les rendant
instantanément accessibles.

Ainsi la barrière entre le web public et le privé (documents personnels) devient


extrêmement ténue. Cependant, Google affirme289 que les informations contenues dans le
disque dur ne seront pas utilisées ni envoyées à qui que ce soit. Les transferts de
renseignement concernent uniquement les usages et problèmes relatifs.

289
« By default, Google Desktop Search collects a limited amount of non-personal information from your
computer and sends it to Google. This includes summary information, such as the number of searches you do
and the time it takes for you to see your results, and application reports we'll use to make the program better.
You can opt out of sending this information during the installation process or from the application
preferences at any time. Personally identifying information, such as your name or address, will not be sent to
Google without your explicit permission. » Google Desktop Search Privacy Policy :
[Link] consulté le 28 novembre 2004.

130
Première partie ─ De nouvelles machines à communiquer

Cette dernière innovation permet au moteur d’être encore plus présent sur le PC et de
devenir indispensable. En effet, la quantité de documents enregistrés, les liens mis en
signet, le courrier électronique deviennent vite très difficiles à gérer. Le Desktop Search
offre une solution aux problèmes d’entropie locale et permet de récupérer certains
documents perdus dans des fichiers peu utilisés.

Il est fort probable que d’autres moteurs suivront très rapidement l’exemple de Copernic
et de Google pour maintenir leur présence et fidéliser leur clientèle.

Microsoft, par exemple, prépare un dispositif de recherche290 dans sa version Longhorn


de Windows, prévue pour 2006. Cette application devrait comporter un moteur de
recherche pour fichier (file centric) et un autre pour le Web. Ainsi l’internaute pourrait
entreprendre des recherches sur son propre disque dur et sur le Web à partir d’une seule
interface. Cependant les concurrents de Microsoft offrent déjà des dispositifs semblables
afin de maintenir le contact permanent avec l’usager. Yahoo prépare sa version.

Développement des langages api (Application Program Interface) pour construire ses
propres agents
La dernière innovation que nous présentons devrait permettre aux programmeurs de
développer leurs propres interfaces et agents compatibles avec les moteurs et les portails. Il
s’agit des langages api.

Google a lancé son api en avril 2002, fondé sur SOAP291 (Simple Object Access
Protocol). Ce programme, téléchargeable292 gratuitement, permet aux développeurs de
construire leurs propres interfaces et d’exploiter les ressources de la base de données de
Google. L’internaute reçoit une clé qui lui donne l’autorisation d’utiliser ce programme. Le
nombre de consultations est limité à 1000 requêtes par jour. Une description assez détaillée

290
Chris Sherman, « An insider’s view of Microsoft’s Longhorn search », Searchenginewatch.
[Link] consulté le 4 août 2004.
291
SOAP, protocole de communication s’appuyant sur XML et http.
292
[Link]
131
Les agents intelligents sur Internet : enjeux économiques et sociétaux

des hacks ou programmes que l’internaute peut créer est fournie par l’ouvrage de Tara
CALISHAIN et Roel DORNFEST293.

Si les internautes jouissent d’une certaine liberté dans la création d’interfaces Google,
certaines restrictions existent294 : ils ne peuvent pas l’utiliser pour vendre un produit ou un
service ni attirer des visiteurs de leur site vers des sites marchands. Il faut noter
qu’AltaVista a également conçu un langage api appelé Interface Search Services.
Cependant ce logiciel est beaucoup moins connu.

Comme nous l’avons constaté, les moteurs et les portails offrent aux internautes la
possibilité de télécharger leur barre d’outils, intégrant à des degrés différents des fonctions
de recherche et d’analyse en même temps que des services de portail d’information ou de
commerce en-ligne. Ce dispositif est simple et intuitif, favorisant la rapidité et
l’interactivité. La barre est modulable dans la mesure où l’usager peut recevoir et rajouter
certaines fonctionnalités. Cependant, un échange d’informations s’instaure entre l’usager et
le système d’information. Certaines barres d’outils invitent les usagers à fournir des
informations personnelles. Depuis peu, des moteurs de recherche interne sont disponibles
pour indexer, organiser et rendre accessibles les fichiers et documents récupérés sur Internet
ou produits par l’usager. Ces dispositifs sont téléchargeables gratuitement et séparément.
Néanmoins, les langages api vont encore plus loin en permettant aux développeurs de créer
leurs propres interfaces et d’explorer en profondeur les ressources des moteurs et
métamoteurs. En d’autres termes, ces langages facilitent la création d’agents personnalisés.

Grâce au langage api, de nouvelles interfaces voient le jour, intégrant des zones295 très
spécialisées du moteur. Par exemple, Google propose aux chercheurs et aux étudiants une
interface donnant accès aux documents scientifiques et aux thèses, « Google Scholar ».
L’option « University Search » fournit une liste complète des sites universitaires
américains. Cette firme californienne développe par ailleurs des interfaces géographiques
spécialisées dans une région spécifique ou un État particulier des États-Unis.

293
Tara CALISHAIN et Roel DORNFEST, Google à 200%, O’Reilly, Paris, 2003.
294
Source : [Link] consulté le 4 août 2004.
295
La version américaine du Desktop Search (more) permet de se connecter à l’ensemble d’interfaces déjà mis
en-ligne. [Link] consulté le 19 décembre 2004.

132
Première partie ─ De nouvelles machines à communiquer

Nous validons notre hypothèse sur l’extension du moteur sur le PC de l’utilisateur en


apportant des raisons expliquant les enjeux derrière ce dispositif.

133
Les agents intelligents sur Internet : enjeux économiques et sociétaux

1.6. CONCLUSION
Le projet de simuler ou de reproduire l’intelligence humaine, bien que très ancien, n’est
devenu réalisable que depuis l’invention de l’ordinateur. La recherche en IA, en effet, a
débuté vers 1956 et n’a abouti dans des programmes appelés agents intelligents qu’au
milieu des années quatre-vingt-dix. Ce terme, aujourd’hui, est passé de mode. Néanmoins
cette technologie, issue de la recherche en IA, s’est progressivement intégrée dans les
systèmes informatiques, notamment dans les moteurs de recherche et les portails, qui ont
pris l’avantage sur les logiciels agents dans le domaine de la recherche informationnelle.

Les ouvrages scientifiques qui traitent du sujet font mention de l’histoire et de la


mythologie du domaine. L’aspect imaginaire est bel et bien présent dans le discours des
spécialistes. Nous en avons cité quelques exemples plus haut.

Le moteur Google, par exemple, présente un certain nombre de caractéristiques d’un


agent. Il a étendu son interface sur le PC de l’usager en lui proposant une barre d’outils
facilitant l’ergonomie de la recherche sur Internet et de l’analyse des documents récupérés.
Son logiciel d’indexation interne devrait réduire considérablement l’entropie du disque dur
de l’usager. Ces outils restent ouverts à l’innovation et à l’amélioration. En amont, le
moteur collecte en permanence des données sur les usagers à des fins commerciales et pour
augmenter sa précision et sa performance. Ainsi est créé un échange permanent entre les
internautes et le dispositif informatique, processus aux conséquences multiples sur les plans
économique et sociétal.

La barrière entre le domaine privé (le disque dur) et le domaine public d’Internet devient
de plus en plus fragile. Il faut de sérieuses garanties et un système efficace d’anti-spyware
pour s’assurer que la base d’indexation de l’internaute n’est pas visible par des personnes
ou des administrations non autorisées.

134
DEUXIEME PARTIE

2. DE L’OBSERVATION DES USAGES A CELLE DES USAGERS

2.1. INTRODUCTION
Si la première partie de cette thèse traite essentiellement de l’offre technologique, la
seconde partie met l’accent sur les internautes. Ainsi a-t-elle pour objectif de connaître les
usages des outils de recherche d’informations sur Internet en France durant l’année 2003.
Après une série d’entretiens avec certains usagers et experts, nous avons construit deux
questionnaires pour connaître la manière dont les internautes français abordent ce
problème. La première enquête avait pour cible le monde universitaire (étudiants,
chercheurs, enseignants, et documentalistes). La seconde avait pour ambition de connaître
les usages des professionnels de la veille. C’est grâce à l’analyse des résultats des deux
questionnaires que nous avons pu formuler notre hypothèse directrice et orienter la
rédaction finale de notre recherche.

Dans un premier temps, il nous semblait important d’identifier les outils de recherche
employés spontanément et régulièrement par les internautes français de nos groupes pilotes.
Ensuite nous avons voulu connaître dans le détail leurs usages, leurs préférences, leurs
rythmes d’utilisation, leur degré de compétence en matière de recherche d’informations.
Enfin, il nous semblait bon de connaître la manière dont les usagers se représentaient
l’intelligence informatique.

Nous présenterons tout d’abord nos choix méthodologiques. Ensuite, nous passerons à
nos deux enquêtes. Nous les présenterons séparément avant d’en comparer et d’en
interpréter les résultats.

135
Les agents intelligents sur Internet : enjeux économiques et sociétaux

2.2. PANORAMA DES USAGES DES OUTILS DE RECHERCHE

INFORMATIONNELLE

Si nous avons commencé par l’offre technologique, il nous semble important de


connaître avec une certaine précision la demande avant d’en analyser les implications
sociétales et économiques. La collecte d’informations sur les usages a commencé par
quelques entretiens afin de dégager des pistes de recherche. A partir de l’étude de ceux-ci,
nous avons élaboré et testé plusieurs enquêtes. Nous avons apporté des modifications à
celles-ci avant de distribuer une version définitive de chacune. Les deux enquêtes se
présentaient sous forme de questionnaire : la première composée de questions fermées
uniquement tandis que la seconde comportait des questions ouvertes et fermées.

ENTRETIENS
Les entretiens296 ont débuté en 2001. Nous avons commencé par interroger plusieurs
chercheurs en TIC présents sur le campus de l’ENST. Certains choix s’imposaient
d’emblée. Fallait-il laisser l’interviewé s’exprimer librement ou imposer nos concepts et
notre vocabulaire ou cadre de référence ? Fallait-il vérifier des hypothèses ou les découvrir
par une enquête heuristique ? C’est cette seconde méthode qui a prévalu. Nous voulions
connaître les attitudes, opinions, comportements, préférences et représentations des
scientifiques qui, certes, réfléchissaient sur l’impact économique et social des nouvelles
technologies, mais qui, par contre, n’étaient que de simples utilisateurs des moteurs de
recherche et du courrier électronique.

Dans notre première série d’entretiens, nous avons posé quelques questions générales sur
les agents intelligents et les moteurs de recherche. Nous avons laissé les enquêtés
s’exprimer assez librement, n’intervenant que pour relancer la discussion. Le choix du
cadre de référence scientifique était laissé aux participants.

Pour les enquêtes d’approfondissement, nous avons choisi une méthode à mi-chemin
entre l’entretien libre et l’entretien directif. Nous avons préparé une liste de thèmes mais

296
Cf. annexe 7.

136
Deuxième partie ─ De l’observation des usages à celle des usagers

nous avons laissé une grande liberté aux enquêtés. Ils pouvaient développer leur pensée et
suivre le fil de leurs idées. Toutefois, nous nous sommes permis de relancer la discussion
ou d’introduire des thèmes que l’enquêté n’aurait pas abordés. Le schéma d’entretien était
le suivant : consigne de départ, agents logiciels et moteurs de recherche, usages et
perspectives.

Les thèmes qui nous intéressaient sont les suivants : le problème de l’apprentissage de
l’informatique et l’utilisation d’Internet, suivi des usages des moteurs et des agents. Les
représentations de ces derniers nous intéressaient plus particulièrement, notamment les
mythes, métaphores et craintes liés à la collecte de l’information. Ensuite l’importance
économique et stratégique des portails nous semblait un thème correspondant à notre
question de départ. Le rôle de la gratuité nous paraissait essentiel dans le contexte
d’Internet et des services offerts par les moteurs. Le problème relatif à la vie privée devait
faire l’objet d’une analyse approfondie. Nous avons terminé par une question prospective
sur les développements futurs et les usages envisageables.

Le choix des enquêtés était significatif dans la mesure où ces personnes jouissaient
d’une formation universitaire de haut niveau et maniaient très bien le langage. L’on sait,
d’après Rudolphe GHIGLIONE et Benjamin MATALON, que « plus une méthode est non
directive, plus elle fait appel aux capacités verbales du sujet297. »

Nous avons enregistré les entretiens qu’il a fallu transcrire. L’analyse du premier groupe
nous a permis de formuler des hypothèses et de construire nos deux questionnaires. Les
entretiens d’approfondissement nous ont aidé à interpréter les résultats de ceux-ci.

PRESENTATION DES ENQUETES


La première enquête avait pour ambition de connaître les usages des internautes qui
fréquentaient l’enseignement supérieur. Il s’agit d’une population qui a facilement accès à
Internet soit à la maison soit à l’université soit dans un cybercafé. Nous avons divisé la
population en quatre groupes : enseignants, chercheurs, étudiants et documentalistes.
L’ensemble de la population interrogée se servait probablement d’Internet dans le cadre de

297
Rudolphe GHIGLIONE et Benjamin MATALON, Les enquêtes sociologiques, Armand Colin, Paris, 1998, p.
51.
137
Les agents intelligents sur Internet : enjeux économiques et sociétaux

sa recherche et pour ses études. Il fallait savoir quels outils étaient réellement et
régulièrement utilisés dans la recherche documentaire. Ensuite il nous intéressait de
déterminer si les usagers connaissaient des logiciels agents et s’en servaient ou s’ils se
contentaient des portails et moteurs généralistes. Quelle était la fréquence de leur
utilisation ? Y avait-il des difficultés ? La formation en matière d’usage de l’outil
informatique était-elle suffisante ou nécessaire au bon déroulement d’une recherche sur
Internet ?

D’après nos entretiens, tout laissait à penser que seuls les moteurs de recherche et les
portails comme Yahoo et Voila attiraient les internautes. Il nous semblait fort probable que
les logiciels agents du type métamoteur étaient très peu utilisés298. Il était également
possible que peu d’usagers connaissaient le terme « agent intelligent ». Très peu d’entre
eux achetaient ces produits hormis quelques professionnels.

Nous avons formulé l’hypothèse selon laquelle le premier usage en matière de recherche
d’informations consiste à choisir quelques mots-clés et un moteur de recherche. Cette
démarche devait être très rudimentaire. Par conséquent, la recherche avancée, plus
complexe et exigeant plus d’expertise et de maîtrise de l’outil informatique, ne se pratiquait
vraisemblablement guère dans le milieu universitaire. Par contre, il restait fort possible que
d’autres catégories d’usagers se servent de logiciels agents. Nous avons complété notre
première enquête par un questionnaire destiné aux entreprises. En effet, il nous semblait
probable que les cadres pratiquant la veille économique ou technologique seraient en
mesure de nous renseigner sur les usages de logiciels spécialisés. L’observation des forums
spécialisés dans la veille révélait l’intérêt porté aux systèmes d’intelligence économique et
stratégique.

Pour construire notre questionnaire, nous avons choisi les variables suivantes : le type
d’apprentissage, la première démarche lors d’une requête, le choix de l’outil le plus rapide
et le plus pertinent, le temps moyen de recherche, le temps moyen de recherche avant
l’abandon de celle-ci, le type d’usage (professionnel, privé), la fréquence d’usage,

298
Pour Michel Gensollen, les métamoteurs n’avaient pas connu le succès escompté. « Quand on regarde le
marché, il y a trois ou quatre ans, il y avait pas mal de moteurs de recherche, une douzaine à peu près. Et il y a eu
deux stratégies parallèles, celle de Copernic et celle de Google. Le premier ayant celle de l’enveloppeur, « je vais
vous donner l’ensemble de tous les moteurs », démarche très astucieuse qui aurait dû gagner, mais Google l’a
emporté. La stratégie Copernic avait des atouts, mais Google était bien meilleur. » Entretien du 16 10 03.

138
Deuxième partie ─ De l’observation des usages à celle des usagers

l’expérience, la stratégie employée pour chercher un document ou un site, le nombre de


liens ouverts en moyenne, la connaissance du terme « agent intelligent », l’usage des
logiciels agents, l’achat de ceux-ci, et l’efficacité perçue des outils de recherche.

Dans la seconde enquête, nous avons ajouté la gratuité des moteurs, le mode de paiement
de ces services, la justification de l’achat d’un logiciel, la définition d’un agent intelligent,
les usages réguliers et exceptionnels des outils de recherche, les critères d’efficacité, les
perspectives, les facteurs de choix d’un logiciel à l’intérieur d’un service ou d’une
entreprise. Nous avons également formulé quelques questions sur l’importance d’Internet
comme source d’information et sur le temps de veille passé sur Internet.

La première enquête s’est déroulée dans quatre établissements de l’enseignement


supérieur à Paris et dans la région parisienne, comprenant six filières. La répartition est la
suivante : l’Université de Paris II, filières économie, droit et sciences de l’information ;
l’ENST (École Nationale Supérieure des Télécommunications), l’ESIEA (École Supérieure
d’Informatique Électronique Automatique) et l’École polytechnique. La collecte des
données était favorisée par notre facilité d’accès à ces campus299.

D’emblée, nous avons retenu quatre catégories de personnes : les étudiants, les
enseignants, les chercheurs et les documentalistes. Néanmoins, la classification des
enseignants-chercheurs posait problème. En effet, une partie des enseignants de
l’Université provient de l’enseignement secondaire, une autre est composée de vacataires
d’origine très diverse (avocats, ingénieurs, cadres supérieurs), une troisième d’enseignants-
chercheurs (professeurs et maîtres de conférences). Par conséquent, nous avons décidé de
fusionner l’ensemble en un seul groupe en privilégiant la fonction d’enseignant. Les
étudiants, largement majoritaires, constituaient 79,5% de l’échantillon, les enseignants
10,2%, les chercheurs 4,6%, et les documentalistes (et bibliothécaires) 5,6%.

La distribution par filières était la suivante : sciences économiques (39,5%), droit


(21,9%,), étudiants en télécommunications (ENST) (13,4%), Polytechnique (10,3%),
informaticiens (ESIEA) (9,7%), étudiants en Info-com (IFP) (2,4%). Ainsi la population
des étudiants comprenait deux grands groupes : sciences humaines (63,8%) et sciences
exactes (36,2%). Le nombre total d’observations était de 410. La répartition selon le sexe,

299
En tant qu’enseignant à Paris II et à l’École polytechnique.
139
Les agents intelligents sur Internet : enjeux économiques et sociétaux

de 49,6% pour les hommes et 50,4% pour les femmes. La distribution selon l’âge était la
suivante : moins de 18 ans (0,7%), de 18 à 25 ans (76,5%), de 26 à 35 (9,3%), de 36 à 45
(4,6%), et plus de 45 ans (8,8%). Ainsi la majorité de la population étudiée était âgée de 18
à 25 ans et poursuivait des études.

Pour la seconde enquête, nous avons séparé les professionnels de la veille en cinq
catégories dont voici la répartition : consultants (14,2%), veilleurs (14,2%), cadres
commerciaux (14,2%), documentalistes (28,6%), autres (25%). Nous avons constaté que les
documentalistes interrogés avaient pour mission dans leur entreprise de pratiquer la veille
économique ou technologique. La distribution selon le sexe était : de 57% d’hommes et de
43% de femmes. La taille des firmes variait : de 1 à 10 salariés (25,9%), de 11 à 20
(11,1%), de 21 à 100 (3,7%), de 101 à 500 (29,6%) et plus de 1000 salariés (25,6%).

Les deux enquêtes ont été distribuées en 2003, la première du 30 janvier au 30 octobre
2003, la seconde échelonnée entre le 15 mai et le 30 septembre. La première a été transmise
sur support papier tandis que la seconde s’est effectuée en-ligne par courrier électronique.

Le premier questionnaire a été distribué auprès des étudiants dans les cours, les salles de
travail, les bibliothèques et les salles d’informatique, et nous avons laissé des exemplaires à
la cafétéria de l’ENST. Certains exemplaires ont été distribués par l’intermédiaire
d’enseignants.

En ce qui concerne la seconde enquête, nous avons eu le concours du réseau ADBS


(Association des professionnels de l’information et de la documentation) et du forum en-
ligne veille-concurrence, dont les membres pratiquent la veille sur Internet en entreprise.
Ces deux associations d’usagers nous ont permis de poster un message. Ainsi nous avons
fait appel à la bonne volonté des membres pour participer à notre enquête. Nous avons reçu
trente réponses à notre demande et nous avons envoyé par courrier électronique notre
questionnaire.

Il est évident que nous ne pouvions pas faire un sondage concernant toute la population
française, faute de temps et de moyens. Toutefois, la population choisie nous semblait assez
indicative des pratiques et des usages courants en 2003. Certains sites spécialisés dans
l’analyse des audiences du Web confirmaient le choix des internautes en matière de

140
Deuxième partie ─ De l’observation des usages à celle des usagers

moteurs de recherche300. Le petit nombre de réponses du second questionnaire ne nous


permet de généraliser mais les réponses aux questions ouvertes nous ont renseignés sur les
préoccupations des veilleurs et leur intérêt pour certains produits.

Les deux enquêtes sont étudiées séparément : d’abord la présentation des questions,
ensuite les résultats, avec une interprétation conjointe. N’ayant pas pu déterminer la
manière dont les usagers se représentaient les agents intelligents et l’adjectif « intelligent »
qualifiant un programme, nous avons dû entreprendre une troisième enquête en 2004.

ENQUETE : OUTILS DE RECHERCHE EN MILIEU UNIVERSITAIRE

Présentation des questions


Nous avons construit l’enquête301 de la manière suivante. Le premier groupe de
questions concernait la formation initiale à l’usage de l’ordinateur (apprentissage à
l’informatique). Il s’agissait de savoir si la formation était adéquate ou si les internautes
interrogés se formaient eux-mêmes et, par conséquent, il nous semblait possible que leurs
usages en matière de recherche sur Internet resteraient très rudimentaires.

Le second groupe de questions cherchait à identifier les types d’outils préférés, en


première démarche et en fonction de la vitesse de réponse et de la pertinence (usages :
moteurs et agents). Le troisième groupe (fréquence et compétence) avait pour objectif de
vérifier la fréquence d’usage et la compétence de l’usager. La quatrième section de
l’enquête (usages et stratégies) cherchait à identifier le type d’usage, privé ou particulier, et
les stratégies adoptées par l’internaute, usage d’un ou plusieurs mots-clés, type de
navigation et nombre de pages ouvertes en moyenne.

Le cinquième groupe de questions (usages des agents intelligents) avait pour but de
déterminer si les usagers connaissaient le terme « agent intelligent » et s’ils s’en servaient.
Nous avons posé une dernière question sur l’efficacité de l’outil employé. La dernière
section de l’enquête relevait les détails concernant le répondant : âge, sexe, catégorie
professionnelle, et pour les étudiants, la discipline ou spécialité. Présentons maintenant les
questions par variables et modalités.

300
Searchenginewatch ([Link] et Médiamétrie ([Link]

141
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Apprentissage de l’informatique

La première question cherchait à établir la manière dont le sujet avait commencé à


utiliser un ordinateur. Il s’agissait de déterminer les modes d’apprentissage de l’usage de
l’ordinateur et non pas l’initiation à l’informatique en tant que science. Le sujet avait la
possibilité de donner trois réponses par ordre d’importance parmi les modalités suivantes :
par autoformation, jeux vidéo, à l’école, à l’université (enseignement institutionnalisé), à
l’aide d’un ami ou collègue (collaboration), en stage ou par un autre moyen. De brèves
discussions avec des étudiants nous avaient aidé à identifier ces modalités. Nous ne savions
pas si l’apprentissage jouait un rôle important dans l’élaboration et la maîtrise de stratégies
d’usage des outils de recherche. L’un de nos entretiens302 nous avait suggéré que le
processus était assez facile et assez intuitif. Ainsi semblait-il qu’une formation initiale
n’était pas nécessaire. La question était formulée en ces termes : Comment avez-vous
appris à utiliser l’ordinateur ? (Q1 à Q4)

Usages : moteurs et agents

La première question devait vérifier l’hypothèse selon laquelle le moteur de recherche


constituait la première démarche de l’internaute à la recherche d’une information
(document, site, service, ressource). Cinq modalités de réponses étaient proposées :
consulter un annuaire et chercher une rubrique, utiliser un moteur de recherche à partir de
mots-clés, faire une recherche avancée (and, or, near), utiliser un métamoteur de recherche
ou utiliser un agent intelligent (déjà chargé à partir d’un site). Il nous paraissait intéressant
de savoir comment Yahoo était perçu : annuaire ou moteur de recherche ? Durant la période
considérée, Yahoo se servait de la technologie de Google pour les requêtes formulées à
partir de mots-clés. Cette question devait accentuer l’importance de ce moteur. La question
était posée ainsi : Quelle est votre première démarche lorsque vous recherchez un site ou
une information sur le Web ? (Q5)

La question suivante avait pour ambition de connaître par ordre de préférence la


popularité des outils de recherche (choix du meilleur moteur de recherche). Nous avons
proposé une liste de six outils (Voila, Yahoo, Google, Copernic, Excite et autre). Les sujets

301
Cf. annexe 8.
302
Notre entretien du 19 avril 2004 avec Serge Proulx a renforcé cette hypothèse.

142
Deuxième partie ─ De l’observation des usages à celle des usagers

pouvaient indiquer trois outils en hiérarchisant leur choix. La modalité « autre » invitait les
internautes à spécifier des moteurs ou portails non sélectionnés. La formulation était celle-
ci : Quel outil de recherche vous paraît-il le plus rapide pour trouver des résultats
pertinents ? (Q6 à Q9)

Fréquence et compétence

La première question de ce groupe devait nous renseigner sur le temps moyen passé à
rechercher une information spécifique. Les internautes avaient le choix entre trois
intervalles de temps. Bien entendu, la notion de durée303 ne peut être que relative. Un temps
passé de 1 à 3 minutes indiquerait peut-être qu’une recherche est rapide. Une durée de 4 à 8
minutes pourrait être un temps de requête très fréquent. Et un laps de temps de plus de 8
minutes signalerait la patience de l’usager ou le manque d’expérience. Le temps passé peut
aussi indiquer l’importance du thème de recherche. Plus le sujet compte pour l’usager, plus
celui-ci est prêt à y consacrer du temps. Cette variable nous semblait complexe et difficile à
interpréter. En réalité, un internaute ne passe que quelques instants sur le site d’un moteur.
Il consulte les résultats, clique sur des liens et examine les pages. Ce processus itératif
prend du temps. Implicitement, il s’agit du temps de cette itération. La question était
formulée ainsi : Combien de temps passez-vous en moyenne pour trouver ce que vous
cherchez sur le Web ? (Q10)

Une question sur le laps de temps avant abandon suivait logiquement la précédente et
visait à connaître le degré de persévérance des internautes face aux difficultés rencontrées
lors d’une requête. Là encore, l’interprétation des résultats nous semblait complexe. Le
sexe du sondé était-il une variable déterminant la durée de la requête avant l’abandon de
l’internaute ? Il est probable que trop de facteurs entrent en ligne de compte pour notre
propos. Nous avons posé cette question ainsi : Combien de temps en moyenne vous faut-il
avant d’abandonner une recherche faute de résultats pertinents ? (Q11)

La question suivante avait pour objectif de connaître la fréquence d’usage des outils de
recherche. On proposait au répondant cinq modalités : très peu, plusieurs fois par semaine,

303
Quelques secondes d’attente semblent très longues sur Internet. Le haut débit habitue les usagers à la rapidité
des résultats. Chez Google, l’attente est de l’ordre d’une fraction de seconde. Une durée de quatre minutes peut
signifier très peu de temps d’attente mais des réitérations et la lecture des résultats.
143
Les agents intelligents sur Internet : enjeux économiques et sociétaux

une fois par jour, plusieurs fois par jour, très souvent. Il nous a été difficile de segmenter la
fréquence de consultation. D’autres modalités auraient pu être proposées telles que très peu,
assez souvent, souvent et très souvent. Néanmoins ces modalités-là nous paraissaient trop
subjectives, chacun donnant son propre sens au mot souvent. Nous avons donc opté pour
quelques indications quantitatives simples. Nous n’avions pas au préalable d’idée sur
d’éventuelles corrélations. Cette variable était exploratoire. La question se présentait ainsi :
Avec quelle fréquence consultez-vous un outil de recherche ? (Q12)

Une question portait sur l’expérience du sujet. Elle devait nous renseigner sur le nombre
d’années de pratique d’Internet. Il faut toutefois noter que cet hypermédia est très récent. Il
a démarré à proprement parler en France vers 1998. On ne pouvait s’attendre à une
expérience au-delà de cinq ou six ans. L’internaute avait le choix entre quatre modalités :
avant 2000, en 2000, en 2001, en 2002. Nous avons formulé cette question ainsi : Quand
avez-vous utilisé les outils de recherche pour la première fois ? (Q13)

Usages et stratégies

La première question de cette série devait déterminer si les internautes utilisent les
moteurs à des fins professionnelles, personnelles ou les deux à la fois. Trois modalités
étaient proposées. Lors de l’enquête préparatoire, nous n’avons proposé que les deux
premières. Certains répondants ont indiqué les deux à la fois. C’est pourquoi nous avons
rajouté la troisième. L’expression « la plupart du temps » invitait l’internaute à se
prononcer sur son usage habituel. La question était formulée ainsi : Vous servez-vous la
plupart du temps d’un moteur de recherche pour un usage personnel, professionnel ou les
deux à la fois ? (Q14)

La question suivante avait pour but d’identifier la stratégie préférée des internautes. Le
répondant avait le choix parmi les modalités suivantes : naviguer à partir des rubriques d’un
annuaire, faire une requête à partir d’un mot-clé, faire une requête à partir de deux mots-
clés, passer de site en site à l’aide d’un lien. Ces usages correspondaient à ceux le plus
souvent mentionnés dans les articles sur les modes d’exploration d’Internet. L’usager a la
possibilité de faire du surfing en passant par des sites déjà connus et conservés en signet.
Cette méthode était la première avant le développement et l’amélioration des moteurs de
recherche. Ensuite l’usager pouvait consulter un annuaire comme Yahoo et en explorer
l’arborescence, par rubriques et sous-rubriques. Cependant, ce procédé nous semblait très

144
Deuxième partie ─ De l’observation des usages à celle des usagers

laborieux. Néanmoins les bibliothécaires et les documentalistes avaient été formés à cette
méthode. La pratiquaient-ils encore ? Toutefois, tout laissait supposer que la majorité des
internautes avaient adopté la consultation par mots-clés. Nous ne savions pas si le choix
d’un mot-clé ou mots-clés était significatif. La question était proposée ainsi : Quelle
stratégie préférez-vous lorsque vous recherchez un site ? (Q15)

L’objectif de la question suivante était d’approfondir la manière dont les internautes


consultaient un moteur ou son équivalent. Le processus qui consiste à formuler une requête
est itératif. L’usager introduit quelques mots, vérifie les résultats et à partir d’une analyse
rapide de ceux-ci, recommence en réintroduisant d’autres mots ou termes (expressions,
phrases, etc.) afin de raffiner la recherche. Il nous importait de savoir combien de liens les
internautes ouvraient en moyenne avant de reformuler la requête et de l’abandonner après
avoir trouvé ou non la page recherchée. Pour recueillir davantage de précisions, il aurait
fallu développer une autre enquête à caractère qualitatif. On proposait quatre modalités de
réponses simples : un, deux, trois quatre (liens) et plus. Voici la formulation de la question :
Combien de liens ouvrez-vous sur la page des résultats fournis par le moteur avant de
recommencer la requête ? (Q16)

Usage des agents intelligents

La question sur le terme agent intelligent a motivé en grande partie ce questionnaire. Le


mot « agent intelligent » était-il réservé aux informaticiens et aux spécialistes d’Internet, ou
bien était-il connu par le grand public, ou tout au moins par la population étudiée ? Quelle
catégorie de personnes connaissait cette expression ? A quelle formation appartenaient les
étudiants au courant de cette technologie? Dans notre seconde enquête, nous avons
demandé aux répondants de définir ce terme. La question « Savez-vous ce qu’est un agent
intelligent ? » (Q17) proposait un choix binaire (OUI – NON).

Pour les personnes ayant répondu OUI à la question précédente, trois questions portaient
sur le téléchargement d’un logiciel agent, la satisfaction que celui-ci procurait à l’usager et
l’achat de la version payante.

Avez-vous déjà téléchargé un agent intelligent ? (Q18) Une réponse binaire a été
proposée. Si oui, en êtes-vous satisfait ? (Q19). Le répondant avait le choix entre OUI,
NON et « difficile à dire ». Avez-vous acheté la version payante d’un agent intelligent

145
Les agents intelligents sur Internet : enjeux économiques et sociétaux

après une période d’essai de la version gratuite ? (Q20) Là encore, la modalité de réponse
était binaire.

Critères d’efficacité

On demandait aux internautes de se prononcer sur l’efficacité des moteurs de recherche


et de l’évolution de celle-ci. L’efficacité se mesurait en fonction de la pertinence et de la
rapidité des réponses. La question était formulée par une affirmation « selon vous les
moteurs de recherche » et les trois modalités suivaient. (Ils) sont de plus en plus efficaces et
pertinents ; (ils) ne donnent pas de bons résultats ; (ils) exigent beaucoup d’effort de la part
de l’usager (Q21). La première modalité devait confirmer l’amélioration apportée par
Google dans le domaine de la recherche sur Internet, si les interrogés la choisissaient. Opter
pour la seconde pouvait indiquer l’emploi d’un mauvais outil. Il serait donc intéressant de
corréler cette réponse avec le choix des outils.

Nous passons à l’analyse des résultats. Le questionnaire est présenté en annexe304. Le


logiciel le Sphinx conçu par une société française du même nom305 a permis d’effectuer
cette opération.

Analyse des résultats de l’enquête


Les détails des résultats, fournis par le logiciel Sphinx, sont donnés en annexe306.

Apprentissage de l’informatique

Cette question sur l’initiation informatique pratique proposait sept modalités de


réponses. Les internautes pouvaient classer leurs réponses en premier, deuxième et
troisième choix. L’analyse des résultats mettait l’autoformation en tête en première réponse
(65,5%), ensuite la collaboration (9,6%), l’école (7,6%), l’université (6,9%), et les jeux
vidéo (6,6%). Très peu de personnes ont indiqué le stage (2%) ou une autre forme de
formation (1,7%). Au total, 410 observations ont été relevées sur cette question.

La collaboration venait en première position en seconde réponse (23,8%), suivie des


jeux vidéo (19,7%), l’école (19,4%) et l’université (13,6%). Cette fois-ci l’autoformation ne

304
Cf. annexe 8.
305
[Link]
306
Cf. annexe 11.

146
Deuxième partie ─ De l’observation des usages à celle des usagers

représentait que 17,7%. Les autres modalités (stage et autre) étaient respectivement de
4,1% et 1,7%. En troisième réponse, la collaboration représentait 35 %, l’université 20,8%,
l’école 19%, et les autres modalités se situaient autour de 7%.

A première vue, l’apprentissage se fait en général par autoformation, ce qui peut sous-
entendre que l’enseignement en France ne se préoccupe pas de former les jeunes à
l’informatique pratique et à l’usage d’Internet. Cependant, en seconde réponse, l’école
représente 19,4% et l’université 13,6%, soit 33% en tout. On peut en conclure qu’un tiers
des personnes interrogées ont pu bénéficier tout de même d’une formation informatique
dans le cadre de leur scolarité.

L’apprentissage par les jeux vidéo représente 19,7% en seconde réponse. C’est par ce
biais que certains étudiants ont appris à utiliser l’ordinateur. Il y a une corrélation entre
cette modalité et le sexe des répondants. En premier choix, parmi les personnes qui ont opté
pour les yeux vidéo, la distribution est de 85,2% (hommes) et 14,8% (femmes). En second
choix 75,9% des hommes et seulement 24% des femmes ont sélectionné cette modalité et
la dépendance est très significative (chi2 = 22). On peut en conclure que les jeux vidéo sont
pratiqués plutôt par les garçons et exceptionnellement par les filles. Les hommes sont-ils
plus rapides grâce à cette pratique que les femmes en matière de recherche sur Internet ?
Nous avons tenté de vérifier cette corrélation sans résultats significatifs.

Usages : moteurs et agents

On constate que 87,7% des répondants utilisent en première démarche un moteur de


recherche à partir de mots-clés. Cette réponse est confirmée par le choix de Google comme
moteur principal (75,2%). Seules 4,2% des personnes interrogées consultent un annuaire
par rubrique. Peu d’internautes utilisent un agent intelligent (0,5%) ou un métamoteur en
premier lieu (2%). Très peu d’usagers (5,7%) se servent de la fonction « Recherche
Avancée » Celle-ci exige peut-être une formation plus poussée ou prend probablement plus
de temps. L’enquête ne nous permet pas de nous prononcer sur ce sujet. Il est très
significatif d’observer que, pour la population étudiée, les agents intelligents rencontrent
peu de succès. Par conséquent, il nous a fallu orienter notre recherche vers les moteurs et
examiner quels aspects des agents s’y intégraient. Ainsi avons- nous commencé à entrevoir
notre première hypothèse.

147
Les agents intelligents sur Internet : enjeux économiques et sociétaux

En première place vient Google (75%), suivi de Yahoo (16,4%) pour le premier choix de
l’outil de recherche. En seconde réponse, Yahoo vient en tête (56,5%) suivi de Google
(21%). Google et Yahoo307 ensemble représentent 91,4% des choix en première réponse et
76,5% en seconde. En troisième réponse, [Link] reçoit 40% des suffrages, mais
seulement 134 répondants sur 410 (soit 33 %) ont indiqué un troisième choix. Pour
l’instant, Google reste le moteur préféré des étudiants et des universitaires. La corrélation
entre Google en première réponse et Yahoo en seconde réponse est très forte (92,8%) tandis
que pour Yahoo en première réponse 71,9% des personnes interrogées se servent également
de Google en second choix (chi2 = 219,48).

D’autres moteurs de recherche ont été cités dans la rubrique « autre » : Altavista 14
réponses ; MSN, 4 ; Nomade 3, Lycos 3 ; Kartoo 3, Webcrawler 1, Exalead 1, Metacrawler
1. Ces moteurs et agents métamoteurs restent très peu connus. Nous constatons un
phénomène de concentration autour de Google et de Yahoo. MSN n’a pas encore émergé
comme concurrent éventuel des deux outils les plus utilisés.

Nous constatons sans ambiguïté le succès du tandem Google - Yahoo, et l’emploi très
limité des métamoteurs et des agents logiciels. Cependant, en seconde réponse, Copernic
reçoit 8,1% des réponses et 9% en troisième choix. Cet agent est le seul qui soit cité d’une
manière significative.

Fréquence et compétence

Concernant la question à trois modalités portant sur le temps passé, les répondants se
répartissent en trois groupes : 34,1% trouvent ce qu’ils cherchent en moins de 3 minutes,
46,8% entre 4 et 8 minutes, et seulement 19,1% passent plus de 8 minutes en moyenne. Si
on regroupe les deux premiers chiffres, on observe que la majorité (80,9%) trouve en moins
de huit minutes les sites ou pages recherchés.

Si l’on compare les réponses en fonction du sexe, la corrélation temps passé - sexe est
significative (chi2 = 7,84) : de 1 à 3 minutes (58,6% pour les hommes contre 41,4% pour
les femmes) ; de 4 à 8 minutes (42,2% pour les hommes contre 57,8% pour les femmes). A
plus de 8 minutes, les réponses sont presque identiques (49,6% et 50,4%).

307
C’est Google qui fournissait sa technologie à Yahoo en 2003 avant que ce dernier achète Overture. La phrase
« Search Technology provided by Google » s’affichait sur le site.

148
Deuxième partie ─ De l’observation des usages à celle des usagers

SEXE Masc Féminin TOTAL


ulin
temps-recherche1
de 1 à 3 minutes 58,6% 41,4% 100%
de 4 à 8 minutes 42,2% 57,8% 100%
plus de 8 minutes 50,7% 49,3% 100%
TOTAL 49,6% 50,4% 100%

Tableau 2 : Temps de recherche et Sexe

Les résultats de la question sur le laps de temps avant abandon sont les suivantes : entre
1 et 3 minutes, 4,6% ; de 4 à 8 minutes, 20,8% ; de 9 à 15 minutes, 37,2% ; de 15 à 20
minutes, 20,3% ; plus de 20 minutes, 17%. On peut constater que les réponses données
pour cette question sont très variables. Il ne nous est pas possible de fournir des
explications.

En ce qui concerne la fréquence d’usage d’un moteur de recherche, on constate que


23,9% des personnes interrogées utilisent un moteur plusieurs fois par jour contre 41,2%
plusieurs fois par semaine. « Une fois par jour » ne reçoit que 16% de réponses, « très
souvent » 5,4% contre « très peu » 13,4%. L’usage des moteurs est très variable. Nous
n’avons pas collecté des informations suffisantes, ni sur le temps, ni sur le type, ni sur le
lieu de connexion, pour en tirer des conclusions pertinentes.

La majorité des personnes interrogées avait plus de trois ans d’expérience en matière
d’usages d’Internet. La répartition est la suivante : avant 2000, 69,2% ; en 2000 (soit deux
ans d’expérience), 20% : en 2001, 7,6% (une année) et en 2003 (l’année de l’enquête),
3,2%.

Usages et stratégies

La majorité des sondés (62,2%) utilise les moteurs à des fins personnelles et
professionnelles, 22% à titre personnel et 15,9% pour le travail.

On a observé que 88% des personnes interrogées utilisent un ou deux mots-clés. Si on


examine ce facteur de près, on remarque que 47,3% utilisent deux mots-clés contre 40% qui
déclarent ne se servir que d’un seul mot-clé. Il est intéressant de noter que les utilisateurs de
Google, dans leur majorité, optent pour deux mots-clés tandis que les usagers préférant
Yahoo choisit un seul mot-clé.

149
Les agents intelligents sur Internet : enjeux économiques et sociétaux

rapidmoteur1 x stratégie : Google

22 9
naviguer à partir des rubriques d'un annuaire
faire une requête à partir d'un mot clé
faire une requête à partir de deux mots clés
113 passer de site en site à l'aide de liens

158

Figure 2 : Stratégie des utilisateurs de Google

Cette question pose bien des problèmes d’interprétation. Nous savons qu’un seul mot-clé
produit un nombre considérable de liens. Il est très possible que les sondés n’aient pas
réfléchi à cette distinction.

Très peu de personnes (3,9%) passent par les rubriques d’un annuaire et seulement 8,3%
préfèrent le surfing. Ces réponses confirment la prédominance de la méthode de requête par
moteur et par mot-clé.

On constate que la moitié (49,5%) des personnes interrogées ouvre quatre liens ou plus.
L’autre moitié se répartit entre 23,4% ouvrant trois liens, 19,5%, deux liens, et 7,6%, un
lien avant de recommencer la requête. Très peu d’internautes se contentent d’un seul lien en
dehors des documentalistes (18%). Il faut signaler que quatre liens ou plus ouverts
impliquent un temps de lecture ou de parcours des documents avant de décider si ceux-ci
valent la peine d’être lus et s’ils correspondent au thème de la requête.

Usage des agents intelligents

En ce qui concerne la connaissance du terme agent intelligent, 77,5% de la population


interrogée a répondu NON à cette question. Cependant, un tiers des enseignants et
chercheurs affirme en connaître le sens et près de la moitié des bibliothécaires et
documentalistes (47%). Cela s’explique probablement par la formation que cette catégorie a

150
Deuxième partie ─ De l’observation des usages à celle des usagers

reçue. Les étudiants semblent être les moins informés. Cependant, en examinant les
résultats de près, on constate que les étudiants ayant un enseignement informatique
important dans leur cursus, notamment ceux de l’ESIEA et de l’ENST, connaissaient le
terme, 61% et 35% respectivement ; par contre, aucun étudiant en droit et seulement 9%
des Polytechniciens ont répondu affirmativement.

On a observé que 28% des personnes ayant répondu OUI à la question précédente se
déclarent avoir téléchargé un logiciel. Sur cette sous-population, 60% ont exprimé leur
satisfaction, 21,4% ont affirmé le contraire, et 17,9% ont répondu « difficile à dire ».
Seulement 2,8% ont acheté la version payante. Les internautes ne paraissent pas encore
prêts à payer pour un service qui reste gratuit. Cependant, dans notre enquête, il s’agit
d’internautes étudiants et enseignants. Notre enquête auprès des entreprises spécialisées
dans la collecte des données et la veille sur Internet devait apporter des précisions
supplémentaires sur la question.

Nous avons voulu savoir quelles catégories ont téléchargé un logiciel, probablement
Copernic, le seul agent mentionné d’une manière significative.

Ce sont plutôt les étudiants qui ont téléchargé un logiciel agent. Le taux de satisfaction
chez ces derniers (69%) est très élevé. Les deux enseignants - chercheurs répondant à cette
question n’en sont pas satisfaits. Un seul documentaliste a répondu positivement à cette
question.

Critères d’efficacité

La question sur l’efficacité portait spécifiquement sur les moteurs de recherche. On a


observé que 66,4% des interrogés considèrent que l’efficacité des moteurs augmente avec
le temps. Ainsi 67,3% des utilisateurs de Google contre 62% de ceux de Yahoo prononcent
en faveur de l’efficacité. Cette différence, cependant, n’est pas significative sur le plan
statistique car la moyenne est de 64% pour l’ensemble des réponses.

L’expérience en matière d’Internet joue-t-elle un rôle dans l’amélioration de l’efficacité


des moteurs ? La corrélation efficacité-expérience a fourni de résultats significatifs. Il
semble, en effet, que les personnes ayant débuté en 2000 estiment trouver ce qu’elles
recherchent moins rapidement que les autres.

151
Les agents intelligents sur Internet : enjeux économiques et sociétaux

temps-recherche1 de 1 à 3 de 4 à 8 plus de 8 TOTAL


minutes minutes minutes

expérience
avant 2000 40,1% 41,8% 18,1% 100%
en 2000 19,8% 64,2% 16,0% 100%
en 2001 16,1% 48,4% 35,5% 100%
en 2002 38,5% 46,2% 15,4% 100%
TOTAL 34,2% 46,9% 18,9% 100%
Tableau 3 : Temps de recherche et expérience du Web

Lorsque l’on s’interroge sur l’éventuelle corrélation entre la fréquence d’usage et


l’efficacité perçue, on constate que les internautes qui utilisent les moteurs plusieurs fois
par jour sont les plus nombreux à observer une amélioration dans leur efficacité (79,6%).
Nous pouvons interpréter ce résultat de la manière suivante : plus on fait usage d’un
moteur, plus on augmente l’efficacité apparente de celui-ci grâce à une augmentation de sa
propre compétence. Cependant, on doit nuancer ce constat car 33,8% des internautes qui se
servent d’un outil de recherche une fois par jour considèrent que les moteurs exigent
beaucoup d’efforts. L’utilisation quotidienne ne révèle pas forcément un usage important.

fréquence-usage1 très peu plusieurs une fois par plusieurs très TOTAL
fois par jour fois par jour souvent
semaine
efficacité
sont de plus en plus efficaces et pertinents 50,0% 67,9% 58,5% 79,6% 59,1% 66,4%
ne donnent pas de bons résultats 5,8% 4,9% 7,7% 2,0% 13,6% 5,3%
exigent beaucoup d'effort de la part de l'usager 44,2% 27,2% 33,8% 18,4% 27,3% 28,3%
TOTAL 100% 100% 100% 100% 100% 100%

Tableau 4 : Efficacité et fréquence d’usage d’un moteur

Concernant le choix du moteur en corrélation avec l’efficacité, on s’aperçoit que Google


(68,7%) suivi de Yahoo (65,1%), Copernic (65,1%) Voila (47.4%) remporte le taux le plus
élevé de satisfaction. Seulement 3,7% des répondants considèrent que Google ne donne pas
de bons résultats contre 7,9% pour Yahoo et 15,8% pour voilà. La réponse « ils exigent

152
Deuxième partie ─ De l’observation des usages à celle des usagers

beaucoup d’efforts de la part de l’usager » accueille 27% et 27,6% pour Google et Yahoo
respectivement, et 36,8% et 37,5% pour Voila et Copernic. Google et Yahoo semblent être
les plus faciles à utiliser. On constate toutefois que l’usage des moteurs pose des problèmes
pour au moins un quart des utilisateurs.

Ces résultats nous ont permis de concentrer notre recherche sur les moteurs et leur
intégration de la technologie agent. Cependant, il a fallu poursuivre notre enquête en
interrogeant un autre milieu. Si les étudiants étaient nombreux à répondre, il a été plus
difficile de collecter des informations en milieu professionnel. Nous ne pouvons pas
proposer une analyse statistique scientifique en tenant compte d’un si faible échantillon.
Néanmoins, les réponses aux questions qualitatives nous ont fourni d’importants
renseignements sur les pratiques et les intérêts de certains usagers professionnels.

ENQUETE : USAGES DES OUTILS DE RECHERCHE EN MILIEU PROFESSIONNEL


Ce second questionnaire avait pour objectif de déterminer les usages habituels et
occasionnels des personnes pratiquant la veille sur Internet dans une entreprise. Ayant
constaté, lors du dépouillement du premier, que la plupart des sujets étaient ignorants pour
la plupart du terme « agent intelligent », nous voulions vérifier si les professionnels se
montraient mieux informés à ce sujet et comment ils définissaient l’expression.

Un certain nombre de questions se présentaient d’emblée. Quels logiciels utilisaient-ils ?


Les achetaient-ils? L’acquisition d’un produit gratuit était-elle suivie d’une phase
d’expérimentation puis d’un achat ? Quels étaient les critères d’un outil de recherche
performant ? Quels types de problèmes ont-ils rencontré ?

153
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Présentation des questions


Le questionnaire se divisait en huit parties :

1 « Usages : moteurs et agents » ;

2 « Gratuité des moteurs de recherche » ;

3 « Usages et choix des agents intelligents » ;

4 « Usages réguliers et exceptionnels » ;

5 « Fréquence, compétence, expérience » ;

6 « Critères d’efficacité » ;

7 « Prévisions et problèmes » ;

8 « A propos de vous et de votre entreprise ».

Usages : moteurs et agents

La première question portait sur le type d’outil de recherche que les sujets avaient
coutume d’utiliser en première démarche lorsqu’ils cherchaient une information sur
Internet. Six modalités de réponses étaient proposées : moteur de recherche, métamoteur,
agent intelligent gratuit, agent intelligent acheté, agent intelligent dans un portail, autre.
Cette question était à réponse unique sur une échelle. La question était formulée ainsi :
Quel type d’outil de recherche utilisez-vous habituellement en premier choix, deuxième
choix et troisième choix? (Q1 à 3)

La seconde question avait pour objectif de collecter des données sur les outils dont les
sujets se servaient fréquemment et de connaître leurs motivations. La question était ouverte
et la passation en-ligne permettait au sujet de développer sa réponse car l’espace destiné à
recevoir l’information était facilement modulable : Quel outil de recherche utilisez-vous le
plus souvent ? (citez-le) Pourquoi ? (Q4)

Comme pour la première enquête, les répondants pouvaient désigner l’outil le plus
rapide fournissant les résultats les plus pertinents en premier, second et troisième choix.
Neuf modalités étaient proposées : [Link], Yahoo, Google, Copernic, Excite, Altavista,
Lycos, Kartoo et autre. A la différence du premier questionnaire, on a introduit Altavista.
Cette question était à réponse unique sur une échelle. Un espace de dialogue permettait à

154
Deuxième partie ─ De l’observation des usages à celle des usagers

l’usager ayant répondu « autre » de préciser son choix : Quel outil de recherche vous paraît
le plus rapide pour fournir des résultats pertinents ? (Q5 à Q8)

Gratuité des moteurs de recherche

Le groupe de questions suivantes avait pour but de connaître l’attitude du sujet sur la
gratuité et l’éventuel paiement des moteurs de recherche. La modalité des réponses était
binaire. Nous avons établi une distinction entre les moteurs généralistes et ceux destinés
aux professionnels et spécialisés dans un secteur économique.

Êtes-vous prêt à payer pour utiliser un moteur de recherche généraliste ? (Q9)

Êtes-vous prêt à payer pour utiliser un moteur de recherche spécialisé ? (Q10)

La question suivante cherchait à déterminer le mode de paiement dans l’éventualité de la


suppression de la gratuité. Le sujet avait le choix entre cinq modalités : par unité de
consultation, par abonnement à chaque moteur choisi, par abonnement à un bouquet de
moteurs, par abonnement à une interface unique, par abonnement inclus dans celui du
fournisseur d’accès. Cette question était à réponse unique sur une échelle.

La question se présentait ainsi : Si l’utilisation des moteurs de recherche devenait


payante, quel mode de facturation préféreriez-vous ? (Q11)

Usages et choix d’agents intelligents

La première question de ce groupe portait sur le téléchargement d’un agent intelligent. Il


s’agissait de vérifier l’hypothèse selon laquelle les professionnels utilisaient les logiciels
agents. La question était binaire : Avez-vous déjà téléchargé un agent intelligent ? (Q12) La
seconde concernait le degré de satisfaction : SI OUI, en avez-vous été satisfait (e) ? (Q13).
La réponse était ternaire (oui, non, difficile à dire).

La question sur l’achat du produit suivait la précédente. Il nous semblait intéressant de


connaître le ratio test/achat : SI OUI, avez-vous acheté sa version payante après une période
d’essai de sa version gratuite ? (Q14)

La question suivante devait mesurer le degré de satisfaction entraînée par l’achat d’un
logiciel agent. Le sujet pouvait choisir entre « pas du tout », « un peu », « assez et
beaucoup », « énormément ». Cette question était à réponse unique sur une échelle : SI

155
Les agents intelligents sur Internet : enjeux économiques et sociétaux

OUI, pensez-vous que cette version apporte des améliorations par rapport à la version
gratuite qui peuvent justifier l’achat? (Q15)

Avec une question ouverte, nous voulions connaître les motivations du sujet concernant
le téléchargement d’un logiciel dont la version d’essai est offerte gratuitement. Trois
modalités étaient proposées : « pour tester l’efficacité du logiciel », « pour vous former à
l’utilisation du logiciel », « pour déterminer votre choix d’achat ». SI OUI, pourquoi
l’avez-vous téléchargé en version gratuite? (Q16 à 19)

Le sujet pouvait classer chaque motivation en premier choix, deuxième ou troisième. Les
phrases proposées étaient les suivantes : « Pour tester l'efficacité du logiciel » ; « Pour vous
former à l'utilisation du logiciel » ; « Pour déterminer votre choix d'achat » ; « Pour
comparer plusieurs logiciels avant d'acheter » ; « Autres motivations ». Une boîte de
dialogue permettait au répondant de préciser d’autres motivations (Q20).

Une question ouverte avait pour objectif de connaître le sens que les répondants
donnaient au terme « agent intelligent ». La question était libellée ainsi : Selon vous,
qu’est-ce qu’un agent intelligent? (Q21)

Une seconde question ouverte devait nous permettre de connaître les noms des logiciels
utilisés et les motivations des usagers : Quels agents intelligents avez-vous téléchargés ?
Pourquoi ? (Q22)

Il nous intéressait de savoir comment la décision d’acheter un logiciel était prise au sein
de l’entreprise du sujet. Quatre modalités étaient proposées : « chacun est libre de choisir
ses outils » ; « la direction du service seule décide » ; « la décision est prise après tests et
concertation avec les usagers » ; « autre ». Un espace de dialogue était laissé pour la
réponse « autre » : Quels facteurs déterminent le choix d’un logiciel de recherche dans
votre service ? (Q23). Si vous avez répondu « autre », lequel ? (Q24)

156
Deuxième partie ─ De l’observation des usages à celle des usagers

Usages réguliers et exceptionnels

Nous avons proposé deux questions ouvertes afin de connaître les usages réguliers et les
usages exceptionnels des outils : Quels types d’usages réguliers avez-vous des outils de
recherche ? (Q25) La question sur les usages exceptionnels était exploratoire, comme la
précédente. Nous partions du principe que chacun peut inventer ses propres usages : Quels
types d’usages exceptionnels avez-vous des outils de recherche ? (Q 26)

Une question fermée (binaire) et une question ouverte devaient nous renseigner sur les
usages effectifs des sujets dans le détail : Hier, par exemple, avez-vous utilisé un outil de
recherche ? (Q 27), SI OUI, pourquoi ? (Q28)

Une quatrième question devait nous éclairer sur l’usage des agents d’alerte. Cinq
modalités étaient proposées : « jamais » ; « presque jamais » ; « parfois » ; « souvent » ;
« très souvent ». La question était proposée ainsi : Utilisez-vous la fonction alerte des
agents intelligents ? (Q29)

Fréquence, compétence, expérience

Ce groupe de questions sur le temps passé lors d’une requête reproduisait celles du
premier questionnaire. Il n’est pas nécessaire de les présenter de nouveau.

Combien de temps vous faut-il, en moyenne, pour trouver ce que vous cherchez sur le
Web ? (Q30) Au bout de combien de temps, en moyenne, abandonnez-vous une recherche
faute de résultats pertinents ? (Q31) Avec quelle fréquence consultez-vous un outil de
recherche ? (Q32)

Nous avons cependant ajouté une question sur l’importance de la veille sur Internet pour
la population étudiée. Cinq modalités étaient proposées : moins de 10% ; entre 10% et
20% ; entre 20% et 30% ; entre 30% et 50%, plus de 50%. La question était formulée ainsi :
Quelle partie de votre temps consacrez-vous à la veille sur Internet ? (Q33)

Une dernière question avait pour but de mesurer l’importance d’Internet en tant que
source d’information. Trois modalités étaient proposées : faible, moyenne, forte : Selon
vous, Internet est une source d’informations économiques et stratégiques...(Q34)

Comme pour les étudiants et les universitaires, nous avons voulu établir les modes de
formation. Cette fois-ci nous avons orienté la question différemment en remplaçant

157
Les agents intelligents sur Internet : enjeux économiques et sociétaux

« ordinateur » par « outils de recherche ». « Comment avez-vous été formé à l’utilisation


des outils de recherche ? » (Q35) On laissait au sujet la possibilité de préciser le mode
d’apprentissage s’il répondait « autre ». (Q36)

Critères d’efficacité

Le but de la première question de ce groupe était de connaître les critères expliquant le


choix d’un outil de recherche. Sept modalités étaient proposées :

« il trouve des résultats pertinents rapidement »

« il organise et représente les résultats cartographiquement »

« il trouve facilement les résultats déjà stockés »

« il gère la diffusion des informations collectées »

« il explore le Web invisible »

« il possède une bonne ergonomie »

« il possède une interface déjà appropriée grâce à l'usage d'autres logiciels »

La question était formulée ainsi : Parmi les critères d’efficacité énumérés ci-dessous,
lesquels déterminent le choix de votre outil de veille sur Internet ? (Q37 à 39). Une seconde
question, ouverte cette fois-ci, permettait au sujet de s’exprimer sur d’autres possibles
critères : Quels autres critères considérez-vous comme indispensables dans un logiciel de
recherche ? (Q40)

Prévisions et problèmes

La première question cherchait à profiler les attitudes concernant les capacités des agents
et les perspectives d’ordre social :

Selon vous, les agents intelligents parviendront-ils bientôt à répondre à une question en
langage naturel? (Q41) ; interagir avec l'usager comme le ferait un humain? (Q42) ; extraire
des informations pertinentes des documents? (Q43) ; remplacer l'humain dans sa fonction
de veille? (Q44) ; répondre à une question orale? (Q45)

Le sujet pouvait répondre par : « très peu probable » ; « peu probable » ; « probable » ;
« assez probable » ; « très probable ».

158
Deuxième partie ─ De l’observation des usages à celle des usagers

Ce second groupe de questions avait pour but de connaître les problèmes éventuels liés à
l’usage des outils de recherche : Dans votre entreprise, les outils ont-ils posé des
problèmes : de perte de temps? (Q46) ; de manque de validité de résultats? (Q47) ; de
manque de labellisation? (Q48) ; d'oubli de certains sites essentiels? (Q49) ;
d'incompatibilité avec un firewall? (Q50) ; d'intrusion de personnes non autorisées dans le
réseau de votre entreprise? (Q51) ; et autres (Q52). Un espace de réponse permettait de
préciser cette dernière modalité. Une échelle de fréquence était proposée : jamais ;
rarement ; parfois ; souvent ; très souvent.

A propos de vous et de votre entreprise

Ce dernier groupe de questions était destiné à collecter des informations sur l’âge, le
sexe et la fonction du répondant ainsi que la taille de l’entreprise. Les résultats ont été
donnés en début de chapitre. Le questionnaire est présenté en annexe308.

Analyse des résultats


L’objectif de cette enquête est d’explorer dans la mesure du possible les usages du
milieu professionnel en privilégiant des questions ouvertes. Nous en présenterons les
résultats en les comparant à ceux de la première. Toutefois, il est difficile de faire des
généralisations avec seulement trente observations.

Usages : moteurs et agents

Le moteur de recherche constitue le premier choix des professionnels, 80% contre 87,7%
chez les étudiants et universitaires. Peu de répondants utilisent un métamoteur ou un agent
intelligent soit gratuit soit acheté en premier choix. Chaque type recueillait 6, 7%
seulement. En second choix, les répondants préfèrent les métamoteurs à 69,9%. L’agent
intelligent gratuit (31,6%) venait en tête en troisième choix. On constate aisément le succès
auprès des deux populations des moteurs de recherche.

Une question ouverte portait sur l’outil le plus utilisé et les raisons du choix. Pour
étudier les résultats, nous considérons l’ensemble des réponses comme l’unité de contexte.

308
Cf. annexe 11.
159
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Nous avons choisi comme unité d’enregistrement le terme lemmatisé : à titre d’exemple,
« simple », « simplicité » sont mis dans la catégorie « simple ».

Cette question a fourni des noms de moteurs souvent utilisés et d’amples commentaires.
Nous relevons d’abord le nombre de citations concernant un outil de recherche. Puis nous
proposons une synthèse de ces commentaires. Examinons Google, cité dix-sept fois. Les
termes utilisés pour qualifier ce moteur sont présentés avec leur fréquence. Le terme
« simple » est employé cinq fois, efficace, une fois, performant (trois), pertinent (deux).
Des informations plus précises sur les capacités du moteur sont fournies. Certains sujets se
servent d’adjectifs superlatifs (« de loin le plus performant ») pour caractériser ce moteur :
il est « très pertinent » grâce aux catégories, « très pratique » grâce aux options, « rapide ».
Les fonctionnalités avancées sont mentionnées. Le moteur possède certains atouts, par
exemple l’extrême rapidité à fournir les résultats. La fonction cache conserve les pages qui
n’existent plus sur le Web.

Ce moteur est considéré comme « le plus performant » en indexation et en temps de


réponses. Il fournit « le plus d’informations ». On retrouve des substantifs comme
(« rapidité, originalité, multiplicité (sources), pertinence (résultats) » pour le décrire. Les
fonctionnalités, le cache (trois fois), la barre d’outils, les options, les boutons dans
Explorer, sont mentionnés. La barre d’outils de Google est mentionnée car « elle permet
d’avoir en permanence sur l’écran la possibilité de paramétrer une requête ».

Selon un professionnel consulté, Google constitue le point de départ de toute recherche


et facilite l’élaboration d’une stratégie de recherche et la définition des mots-clés qui
pourraient s’employer avec le concours d’un métamoteur par la suite.

Les autres outils mentionnés sont Copernic (six fois), AltaVista (deux fois) « qui permet
une recherche des expressions dans les titres des documents », Alltheweb (une fois) et
Yahoo (deux fois) en tant qu’annuaire, bien que cet outil fonctionne en moteur de recherche
grâce à la technologie de Google. Kartoo (quatre fois), Alltheweb, Bullseye, Exalead, et
Arisem sont cités une seule fois.

Selon certains répondants, les métamoteurs permettent « d’explorer davantage de


sources d’information » pour « avoir une exhaustivité ». BullsEye est décrit comme un
agent intelligent et un métamoteur. En effet, les métamoteurs sont souvent considérés
comme des agents intelligents, également dans la littérature du domaine scientifique.

160
Deuxième partie ─ De l’observation des usages à celle des usagers

Un veilleur déclare avoir développé ses propres algorithmes (référence à l’api de


Google) et insiste sur l’importance de connaître les opérateurs et d’autres moyens de
paramétrage. Lancer des dizaines de requêtes simultanément semble jouer un rôle essentiel
dans sa stratégie mais nous ne savons pas s’il s’agit d’une action portant sur un ou plusieurs
moteurs.

Deux stratégies sont décrites : pour une question ponctuelle, Google ou un autre moteur
est utilisé pour « définir mots-clés et stratégie de recherche » ; et afin d’identifier « une
panoplie », le sujet utilise un annuaire comme Yahoo ou un métamoteur pour être
« exhaustif ».

Une idée importante se dégage : les moteurs de recherche sont incontournables. Les
outils de recherche sont toujours « indexés sur un moteur de recherche classique »,
notamment Google. L’analyse de ces commentaires met clairement en évidence la place de
premier choix de ce dernier dans les usages de veille sur Internet. Ses fonctionnalités et sa
mémoire le placent en première position. L’analyse de cette réponse en même temps que le
dépouillement d’autres résultats nous ont orienté vers l’hypothèse selon laquelle les agents
n’ont pas eu beaucoup de succès et que les moteurs ont incorporé la technologie agent. Les
commentaires sur la barre d’outil et la programmation en api nous fournissaient des pistes
de recherche.

La dernière question de ce groupe portait sur la rapidité et la pertinence des résultats.


Google est considéré de loin comme le plus rapide et efficace (70%) en premier choix, suivi
de Copernic (10%) et de Kartoo (10%) et de Yahoo (6,7%). AltaVista (33%) vient en tête
en seconde choix, suivi de Yahoo (18%). Les autres outils cités sont [Link] (open
directory), Scirus, Wisenut, alltheweb, Infoseek, Vivissimo, Mapstan, Northernlight,
Mamma. Les métamoteurs en-ligne ne sont pas cités.

Par rapport à la première enquête, nous avons constaté que les veilleurs utilisent d’abord
un moteur, ensuite un agent logiciel ou un métamoteur pour élargir la recherche tandis que
les universitaires et les étudiants se servent d’un moteur puis éventuellement d’un portail.
Seul Copernic est connu par ce groupe. Par contre, les professionnels citent des logiciels
spécialisés peu connus du public universitaire et estudiantin.

161
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Gratuité des moteurs de recherche

Il est évident que la quasi-totalité des professionnels (96%) n’accepte pas de rétribuer un
service encore gratuit et fondamental. Car on ne peut pas trouver des ressources sur Internet
sans les moteurs, les annuaires ou les portails. La question avait pour objectif de souligner
le problème posé par la gratuité avant d’introduire l’idée d’un paiement pour des moteurs
spécialisés. Pour l’accès à des moteurs spécialisés, l’échantillon se divise en deux groupes
(56% pour, 44% contre).

Un commentaire paraît significatif : « si très spécialisé », c’est-à-dire, si le service


apporte de la valeur introuvable par ailleurs. La gratuité des services des moteurs de
recherche paraît bien ancrée dans les mœurs et les attentes des internautes. Néanmoins,
nous avons posé la question concernant les modes de paiement pour le cas où la gratuité
disparaîtrait.

La solution par abonnement semble (61,8%) la plus souhaitable, suivie de l’abonnement


à chaque moteur choisi (27,3%), et de l’abonnement à un bouquet de moteurs (22,7%).
« Par unité de consultation » accueille 18,2% des réponses.

Usages et choix d’agents intelligents

Contrairement aux étudiants et universitaires, 71,4% des veilleurs professionnels ont


effectivement téléchargé au moins un agent intelligent. D’ailleurs, dans la question 2,
certains d’entre eux ont cité Copernic, BullsEye ou d’autres logiciels du même type.

Les résultats et les performances des agents téléchargeables sur le Web paraissent
extrêmement limitées, et les usagers pour la plupart ne sont pas très enthousiastes, 60%
contre 40% de satisfaits : « difficile à dire » et NON accueillent 20% chacune. La réponse
« difficile à dire » peut impliquer que certains agents logiciels sont plus performants que
d’autres. Un répondant a signalé le fait suivant : « J’en ai téléchargé plusieurs et certains
intéressants, d’autres non ! »

On constate que 40% des sujets ont acheté la version payante, après avoir testé la
gratuite. Il nous importe de savoir si l’achat en valait la peine, si la version achetée est plus
performante que celle offerte. La moitié des répondants considéraient que l’achat en valait
la peine tandis que 25% estimaient le contraire et 25% étaient indécis. On peut se demander
si ces produits sont réellement efficaces par rapport aux moteurs.

162
Deuxième partie ─ De l’observation des usages à celle des usagers

Nous avons appliqué un coefficient à chaque réponse en fonction du classement par


ordre de préférence, dans le but d’affiner nos connaissances sur les facteurs déterminant le
téléchargement. C’est le fait de pouvoir tester le logiciel qui vient en première place (87%).
La formation et la comparaison de logiciels semblent moins préoccuper les usagers. Nous
pensons que les veilleurs sont en phase d’expérimentation et cherchent les outils les mieux
adaptés à leurs besoins : mais aucun produit efficace n’émerge pour l’instant dans la
gamme de logiciels cités plus haut.

Une question ouverte invitait les sujets à définir le terme « agent intelligent » et à fournir
quelques commentaires. Il nous était possible d’identifier certaines attitudes à l’égard de
cette technologie. L’ensemble des réponses constitue l’unité de contexte. L’unité
d’enregistrement est la lexie (segment ayant un sens, mot, groupe de mots, phrase). Nous
avons catégorisé ce corpus de la manière suivante. Certaines réponses permettaient
d’identifier le type d’agent auquel le sujet pensait (type d’agent : métamoteur, agent
d’alerte, agent de traitement). Une seconde catégorisation facilitait l’insertion des réponses
dans une dimension « attributs d’un agent » (autonomie, communication, automatisation).
L’autonomie peut comporter deux sous-catégories comme « remplacer l’usager » ou « prise
de décision ». Nous proposons deux catégories supplémentaires, « attitude critique » et
« référence à l’intelligence artificielle ».

Nous présentons d’abord la catégorie « type d’agent ». Commençons par les définitions
proches de celle du métamoteur, relevées dans les différents questionnaires. Deux citations
font mention implicitement à ce type d’outil : « Recherche automatique…transmettre en
une seule demande une requête sur de multiples supports » et « logiciel qui contacte un
nombre important de sites pour présenter les résultats de façon pertinente. »

L’agent d’alerte, important pour la veille, reçoit cinq citations : « Outil de veille,
surveillance, mise à jour automatique, rapport sur les changements » ; « réaliser des veilles
sur certains sujets », ou « vérification de site » ; « en effectuant de la veille sur certains
sites et en détectant les éventuels changements et le cas échéant, en m'avertissant. »

Les agents de traitement de l’information semblent correspondre à des besoins des


veilleurs. Ils mentionnent : « analyse sémantique », « basé sur sémantique », « collecte et
exploitation », « mini-systèmes experts atomiques », « résumés automatiques »,
« dédoublonner », « doté de connaissances spécialisées » « analyser les informations
163
Les agents intelligents sur Internet : enjeux économiques et sociétaux

récupérées », « filtrages », « automatiser la recherche d’information » « de traiter en


partie l'information comme des résumés automatiques ».

Certaines définitions correspondent aux fonctionnalités de traitement et de filtrages


intégrées dans les logiciels agents comme Copernic. « Un agent intelligent est un logiciel
qui permet d'automatiser la recherche d'informations, qui peut analyser les informations
récupérées, qui peut réaliser des filtrages et réaliser des veilles sur certains sujets et/ou
certains sites. » C’est « un outil qui permet de trier rapidement l'information, de l'étudier
sémantiquement, de retirer la " quintessence " d'une question précise, d'automatiser des
tâches, de filtrer des informations non souhaitées, de surveiller des sites, de choisir des
informations thématiques. » « Il s'enrichit au fur et mesure de ses trouvailles. » « Outil qui
traite les résultats. »

Les attributs des agents intelligents sont mentionnés, ce qui dénote certaines
connaissances théoriques de la part des personnes interrogées.

L’autonomie est caractérisée par la prise de décision : « moteur de recherche doté d'une
certaine autonomie et capacité de faire des choix », « réaliser des buts spécifiques. » Un
agent peut remplacer l’usager : « outil d'aide logiciel actif, capacité à mener en lieu et
place de l'utilisateur des actions de recherche », « accélérer les recherches sur le web en
exécutant un certain nombre de tâches simples à ma place. » D’autres citations mettent en
évidence l’importance de l’autonomie : « ils peuvent interroger simultanément les outils de
recherche à ma place », « une certaine autonomie », « répondre de manière autonome aux
besoins informationnels d’une personne », « fonctionne de façon indépendante. »

Les agents communiquent et coopèrent avec l’usager : ils peuvent « assister le veilleur »
et possèdent « la capacité à assister le veilleur dans les différentes phases du cycle de
veille, aussi bien dans la collecte que dans l'exploitation des infos. » Ils sont « capables de
transmettre l'information. » Ils communiquent par ailleurs « avec le réseau », « collaborant
par échange de messages », ils « sillonnent un réseau…exploitation » et possèdent « des
règles, capables de transmettre l’information. »

L’automatisation caractérise également la définition de l’agent intelligent : on mentionne


« l’automatisation des tâches » ou « la mise à jour automatique ». Les agents
« automatisent la recherche d’information », produisent « des résumés automatiques ».
C’est « un programme installé sur son poste parcourant le Web à la recherche

164
Deuxième partie ─ De l’observation des usages à celle des usagers

d'information prédéfinie. » « Un agent intelligent est un logiciel qui une fois paramétré,
effectue une ou plusieurs tâches pour l'utilisateur, vérification de site, recherche
d'informations. »

Trois citations font référence à l’IA : « il s'appuie sur l'intelligence artificielle »,


« possède l'intelligence artificielle », « un agent est doté de connaissances spécialisées. »
Une définition résume l’ensemble des caractéristiques : « Toutefois si je pouvais définir
l'agent intelligent d'une manière commune, j'affirmerais qu'il s'agit d'un élément " outil "
capable d'automatiser et de répéter continuellement une méthode et un processus de
recherche, de classement, de synthèse, ou autres tâches, suite à une phase tout aussi
continuelle d'apprentissage et d'analyse - plus ou moins - critique de son apprentissage.
Par ailleurs, comme il ne s'agit que d'un agent, il devrait conserver un accès au contrôle
que pourrait effectuer son " propriétaire ". »

Ces définitions correspondent à celles que nous avons présentées dans notre première
partie. Il s’agit d’outils de collecte d’information ou de surveillance de sites Web, ayant des
capacités de traitement et d’analyse des données. Les veilleurs semblent être à la recherche
de produits ayant les caractéristiques définies ci-dessus.

Certains professionnels, cependant, apportent des critiques. Pour un veilleur, les agents
« ne facilitent pas la tâche », pour une autre, ils n’ont d’intelligent que le nom : « Chez
*******, l’agent intelligent c’est l’homme et non la machine. Nous ne parlons jamais
d’agent intelligent. Ils n’ont d’intelligent que le nom. C’est bien ce qui a fait s’écrouler le
marché de la veille et de la recherche. On a fait croire aux gens qu’ils pouvaient se passer
de réfléchir et qu’un robot ferait tout pour eux. Grave erreur ! »

La critique porte sur les affirmations des éditeurs de logiciels et sur les conséquences
économiques relatives à une profession. Une position déontologique se dégage : l’homme
doit être au centre de la veille. Le processus ne peut pas être totalement automatisé. Le
métier de veilleur relève de l’expertise humaine. Certaines citations suggèrent que les
logiciels ne possèdent qu’« une once d'intelligence humaine. » Pour l’instant, les logiciels
testés par les enquêtés ne sont pas au point : « Mon opinion est qu'aucun logiciel n'est
intelligent. Tout au plus, certains sont plus robustes que d'autres vis-à-vis de changements
imprévus de leur environnement. » « Un agent qui est intelligent doit pouvoir prendre des
décisions à notre place. Ce n'est pas le cas. »
165
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Pour un professionnel un agent est « une invention marketing pour désigner des logiciels
à qui l'on délègue une partie de ses pouvoirs, et donc une partie de sa responsabilité. Il est
clair qu'il vaut mieux faire croire qu'un tel logiciel est intelligent, surtout si on lui confie sa
carte de crédit ou son portefeuille d'actions (ce qui est heureusement rarement le cas pour
ce qui est des agents "intelligents"à $30) ». Cependant la catégorie de logiciels concernée
par ces remarques est celle des agents à bas prix.

Un veilleur expose aussi le problème du prix. L’usager distingue les agents du type
métamoteurs et les portails de veille : « J’ajouterais un petit commentaire relatif aux
outils : actuellement, les outils peuvent être classés en deux catégories : "chers" et "pas
chers". Les chers sont du type Arisem ou Knowing, qui va jusqu’à la mise en place de
communauté de pratiques et qui proposent un traitement assez complet de la chaîne
d’information mais nécessitent un investissement humain et financier lourd. Les "pas
chers" du type Bullseys (100 euros) ou gratuits qui n’offrent que quelques fonctionnalités. »

Un éditeur de logiciels apporte des commentaires judicieux sur l’emploi de l’adjectif


intelligent : « Je crois savoir que les progrès en ce domaine sont loin de pouvoir rendre
honnête l'usage du mot "intelligent" pour qualifier des logiciels. Il y aurait beaucoup à
dire ici, surtout en tant qu'auteur de logiciels que la mode force à appeler agents
intelligents.»

L’ensemble de ces commentaires met en évidence l’intérêt des veilleurs pour les
logiciels agents. Cependant il y a un fossé entre ce qu’ils espèrent trouver sur le marché et
la réalité technique, à moins d’y mettre le prix.

La question 22 portait sur les noms des agents téléchargés et les raisons du choix. Nous
les catégorisons par nom d’agent et par autres agents s’il y a très peu de commentaires à
leur propos. L’unité d’enregistrement est la lexie.

Copernic semble le plus utilisé et le plus connu : il est cité 15 fois. Un professionnel
s’interroge sur la définition d’agent : est-ce que Copernic peut être considéré comme un
agent ? Un second sujet met l’accent sur le prix et l’efficacité. « Nous avons acheté les
versions payantes de Copernic car il est le moins cher et le plus efficace ». Il motive son
choix en précision l’usage : « Pour participer à mettre en place une cellule de veille dans
mon entreprise. Recherches d’infos quotidiennes, surveillance de pages web… » Un autre
veilleur évoque la gratuité : « Copernic (et StrategicFinder) pour leur version gratuite ».

166
Deuxième partie ─ De l’observation des usages à celle des usagers

Une autre motivation consiste à tester le logiciel. « Pour les tester et savoir s'ils peuvent
répondre à mes besoins, nous avons acheté les versions payantes de Copernic et
Bullseye ».

Un répondant présente les divers usages qu’il fait de ce logiciel : « Copernic, le dernier
en date : 23 sources de recherche, automatisation du lancement des requêtes, surveillance
continuelle de l'actualisation de pages et sites, prise en compte automatique de sources
jugées pertinentes de classement (de résultats de recherche), analyses sémantique et
statistique de contenu, organisation spatiale et cartographie de résultats de recherche,
implémentation de thesaurii, sources de cartes ». Un autre sujet y émet toutefois quelques
réserves : « Copernic Agent car il est très pratique, bien que je trouve que l'ancienne
version était plus complète. » Un troisième va plus loin dans ses critiques : « Copernic -
méta moteur qui fonctionne bien (pas toujours en fait), très connu »

En ce qui concerne StrategicFinder, ne figurent que deux commentaires bien qu’il soit
cité sept fois. Un sujet évoque la possibilité d’ajouter des modules et une autre la gratuité
du produit : « Strategic Finder pour la possibilité d'ajouter des plug-ins thématiques et
pour son côté pratique » et « StrategicFinder : pour sa version gratuite. »

Webseeker n’est cité qu’une fois. L’usager le considère peu efficace. Il est motivé par la
gratuité et la possibilité de tester et de comparer : « gratuits, mais donc bridés », « pour
avoir un aperçu du marché et comparer. »

Website Watcher, aspirateur de site, n’est cité qu’une seule fois. « WebSite Watcher car
j'avais besoin d'un agent d'alerte pour surveiller plusieurs sites. Opération difficilement
réalisable sans aide ! » KBcrawl, agent métamoteur, est gratuit mais pas très performant :
« gratuits, mais donc bridés », également cité une seule fois.

WatchPortal4u (Arisem) entre dans la classe de logiciels très onéreux. La motivation


provient de la possibilité de le tester et d’avoir des renseignements sur le produit lors d’une
démonstration. « J’ai assisté à la présentation d’outils tels que « WatchPortal4u »
d’Arisem …Pour les tester et savoir s’ils peuvent répondre à mes besoins ».

Les autres logiciels ne font pas l’objet de commentaires. Un groupe cependant est cité et
met en évidence les difficultés liées à l’usage et à l’appropriation. Memoweb (2), BullsEye
(3), Pertimm, StrategicFinder, C4U, Website Watcher, VigiPro. Human Links,

167
Les agents intelligents sur Internet : enjeux économiques et sociétaux

WordMapper, HTTrack, WebWhacker, Wysigot (2), Web-site Watcher, Webspector,


Netboussole « pour comprendre comment ils fonctionnent… Pas toujours facile. »

Nous constatons que les veilleurs citent trois types d’agent : le logiciel métamoteur,
l’agent de veille notamment, KBcrawl, C4U, Website Watcher, VigiPro (intégrant la
technologie Copernic) et l’aspirateur de sites (Memoweb). Le portail de veille apparaît une
seule fois (WatchPortal4U de la firme Arisem). Un seul moteur de recherche interne,
Pertimm est cité. Copernic est le plus cité (15 fois). Ainsi cet agent a fait l’objet d’une
analyse approfondie dans notre première partie.

A partir de ces observations, nous avons pu constater les usages principaux des veilleurs,
notamment la surveillance de l’évolution des sites, éventuellement l’aspiration de certains
afin d’en effectuer une analyse hors ligne et la recherche des informations nouvelles. Ils
font appel aux métamoteurs pour élargir le champ de la requête.

Le choix de logiciels est laissé à l’initiative de l’usager, à 51,5%, contre 24,3% pour la
réponse 3 (concertation et tests). Seuls 6,1% ont affirmé que la direction décidait, 18,2%
répondant « autre ». Cependant, il faut noter que les répondants ne citaient que les produits
de bas prix, ce qui expliquerait sans doute la grande liberté de décision.

Usages réguliers et exceptionnels

La question ouverte sur les usages réguliers nous permettait de dresser une typologie des
activités de veille et de recherche informationnelle. Nous avons construit deux catégories :
recherche et veille. Nous les avons subdivisés en plusieurs sous-catégories.

La catégorie « recherche » est constituée de recherche documentaire : « produit


logiciel », « sur les publications dans Elsevier », « recherche documentaire, localisation de
documents ». Ensuite vient recherche thématique, « recherche sur un thème pour un
dossier », ponctuelle « Google », « recherche ponctuelle d'informations », « home page de
Google pour aller sur les sites ».

La recherche sur les adresses des sites est mentionnée une fois. La recherche
exploratoire « sur un sujet donné, sur les personnes, ou sur les forums », « à propos d’une
marque » est également citée.

La catégorie « veille » inclut la veille thématique « classement de certains thèmes


d'informations », la veille d’actualités « fonction "rechercher sur un site" de Google », de

168
Deuxième partie ─ De l’observation des usages à celle des usagers

phénomènes émergents « pour la veille voir ce qui émerge ou bien nécessité d'identification
des sources ».

D’autres formes de veille sont mentionnées comme la veille juridique « ressources


humaines », institutionnelle, concurrentielle « sur la concurrence », « recherche des infos
sur les sociétés », « création d’entreprises (TIC) », technologique « recherche technique »,
financière « recherches financières » et « recherches sur les sociétés du secteur banque
assurance finance ». D’autres types font aussi l’objet de commentaires sommaires, comme
la veille marketing « produits » et stratégique « un conseil administratif, commercial ou
stratégique ». La surveillance de pages « surveillance continuelle de sources » est citée
deux fois. La création d’un bookmark fait référence à une pratique d’organisation à partir de
signets.

La question sur les usagers exceptionnels nous a livré peu d’informations. Certains
commentaires indiquaient que les sujets n’avaient que des usages réguliers. Quatre
personnes ont signalé qu’elles n’avaient aucun usage exceptionnel. Cependant, une
référence à l’usage d’un annuaire « recherche sur des annuaires type Yahoo », quelques
exemples de veille « surveillance de soft pirates », « sur une personne (avoir une idée du
parcours d'une personne, de son tempérament (newsgroups) », auraient pu être classés dans
la question précédente.

Nous avons créé une catégorie « autres types d’usages ». Trois sujets ont évoqué la
correction d'orthographe, la vérification du sens des mots (« recherche de l'orthographe des
mots quand je n'ai pas le temps de consulter un dictionnaire ») et la correction
grammaticale.

La question, « hier, par exemple, avez-vous utilisé un outil de recherche ?», avait comme
ambition de permettre aux sujets d’évoquer avec précision une activité récente. La plupart
des répondants (92,3%) ont affirmé avoir pratiqué une activité de recherche la veille. Leurs
réponses nous livrent peu d’informations nouvelles mais confirment les types de veille
explicites ou implicites traités plus haut. Toutefois deux nouveautés émergent : la recherche
de signaux faibles (anticiper les tendances) et la mise en place d’un profil de surveillance.

Nous avons constaté que la moitié des répondants (50%) n’utilisaient jamais les agents
de surveillance automatisés, presque jamais (11,5%), parfois (11,5%), souvent 3,8%, très

169
Les agents intelligents sur Internet : enjeux économiques et sociétaux

souvent (23,1%). Un commentaire nous semble intéressant à ce propos: « Jamais, c’est


totalement absurde. On sait que personne ne lit ses mails d’alerte ou alors seulement au
début alors qu’Internet nous permet quand on veut et où on veut de vérifier instantanément
n’importe quoi et à l’instant présent. Donc pourquoi avoir un système d’alerte ? »

Fréquence, compétence, expérience

Les veilleurs en majorité mettent en moyenne moins de trois minutes pour trouver ce
qu’ils cherchent. Nous pouvons en déduire que leur expertise et leur choix d’outils leur
permettent de travailler très rapidement. Toutefois 42,3% passent entre 4 et 8 minutes, et
seulement 7,7% dépassent les 8 minutes. Quelques commentaires fournissent des
précisions : « Tout dépend de la recherche ! », et « ça dépend de la question, et en fonction,
il existe plusieurs stratégies (moteurs, listes de discussions , métamoteurs …) et je
considère que 4-8 minutes correspond à la moyenne ».

Concernant la durée de la requête avant abandon, les résultats sont peu significatifs : de
4 à 8 minutes (25,9%), de 9 à 15 minutes (33,3%), de 15 à 20 minutes (22,2%), et plus de
20 minutes (18,5%). Un commentaire, cependant, permet d’éclairer le problème : « 30
minutes pour être précis, c’est le temps nécessaire qu’il me faut pour véritablement tourner
en rond, c’est à dire revenir sur ce que j’ai déjà vu. »

Pour ce qui est de la fréquence d’usage, nous avons constaté que 80% environ se
servaient des outils de recherche soit très souvent (30,6%), soit plusieurs fois par jour
(50%), une fois par jour (3,8%) et plusieurs fois par semaine (15,4%). Ces résultats
correspondent aux activités escomptées de la population étudiée.

Le temps passé sur Internet était le suivant : moins 10% du temps (20%), entre 10% et
20% du temps (40%), entre 20% et 30% (18%), entre 30% et 50% (8%) et plus de 50%
(16%). La majorité des répondants (60%) passait moins de 20% de leur temps sur Internet.
La question suivante devait déterminer l’importance d’Internet comme source
d’informations. La grande majorité (80%) présentait Internet comme une source forte
d’information économique et stratégique contre 36% (moyenne) et seulement 4% (faible).
Cela correspondait également à nos attentes étant donné la population choisie.

170
Deuxième partie ─ De l’observation des usages à celle des usagers

En ce qui concerne l’apprentissage, l’autoformation venait en tête avec 59,1% des


réponses, suivie de la formation universitaire (15,9%), les stages (internes ou externes)
11,4%, la collaboration 6,8% et 6,8% pour « autre ».

Critères d’efficacité

C’est la rapidité et la pertinence de la recherche qui semble être le critère le plus


important (66,7%), suivi de la capacité de l’outil à accéder au Web invisible (14,8%),
l’ergonomie (7,4%). La question ouverte qui suivait a permis aux répondants d’évoquer les
fonctionnalités que l’on trouve dans certains métamoteurs (version payante). Il est possible
d’éliminer les liens cassés (les sites qui n’existent plus), ce qui constitue un gain de temps
non négligeable. De même, certains logiciels suppriment les doublons, surlignent les mots-
clés dans leur contexte (y compris Google en mémoire-cache ou avec la barre d’outil) ou
permettent l’usage des filtres et des commandes avancées (choix de langue et place du mot
dans le document.)

L’un des répondants évoque la possibilité d’intégrer un agent dans le système de gestion
de l’information. Pour l’instant, selon lui, il est difficile de travailler en même temps avec
plusieurs outils. On souligne l’importance de pouvoir connaître le code d’un outil afin de
mieux le paramétrer, ce qui en augmente l’efficience. Les métadonnées d’une page Web
devraient comporter des renseignements sur l’auteur, la date de mise en route ou de la
dernière modification ou mise à jour, ce qui n’est pas toujours le cas. De même que certains
sites ne sont pas labellisés clairement. Un professionnel interrogé regrette que les outils ne
soient pas conçus spécifiquement pour la veille bien que certains logiciels comportent des
modules sectoriels309. L’organisation des résultats pose également de nombreux
problèmes : stockage, catégorisation, récupération, analyse du contenu, analyse
relationnelle. Ce sont surtout les systèmes très sophistiqués du type Autonomy ou Arisem
qui proposent ce type de solution.

Le dernier point important traite de l’indépendance commerciale. Certains moteurs


vendent leur référencement et en fonction du prix, ils classent les sites par ordre de
préférence en contradiction avec l’importance du contenu. Google, par exemple, ne

309
StrategicFinder.
171
Les agents intelligents sur Internet : enjeux économiques et sociétaux

pratique pas cette politique, ce qui pourrait expliquer en partie sa popularité parmi les
professionnels.

Prévisions et problèmes

Ce groupe de questions devait nous renseigner sur les limites de la technologie agent.
Les agents parviendront-ils à répondre à une question en langage naturel ? La question
impliquait la possibilité de formuler une requête avec une structure interrogative et non pas
en mots-clés. La majorité (60%) pense que ce sera possible : très probable (16%), assez
probable (12%) et probable (32%.) Au contraire 20% des répondants se prononçaient pour
peu probable et très peu probable.

Une interaction entre le système et l’usager proche de l’interaction entre humains


partageait la population à 50%. Les résultats sont : très peu probable 33,3%, peu probable
16,7%, probable 33,3%, assez probable 8,3%, très probable 8,3% .

La question concernant la capacité à extraire des informations pertinentes des documents


fournissait les résultats suivants : très peu probable 4,3%, peu probable 17,4%, probable
26,1%, assez probable 30,4%, très probable 21,7%. La majorité des répondants (78,2%)
considérait que les agents amélioreraient leur performance en matière d’extraction
d’informations.

La question suivante visait à déterminer si les professionnels envisageaient la possibilité


pour le système informatique de remplacer l’humain dans la fonction de veille. Autrement
dit, si cette fonction pouvait être complètement automatisée. La majorité pensait que ce
serait peu ou très peu probable (14,3% et 42,9% respectivement). Cependant 42,8%
envisageaient cette éventualité (assez probable 9,5% et très probable 19%).

Sur la possibilité du système de répondre à une question orale, 60,8% des répondants
considéraient que ce sera peu (30,4%) ou très peu (30,4%) probable contre probable
(26,1%), assez probable (8,7%) et très probable (4,3%).

Le second groupe de questions concernait les difficultés rencontrées. C’est la perte du


temps qui est constatée en premier : rarement (26,7%), parfois (53,3%) et souvent (20%) ;
ensuite le manque de validité des résultats rarement (31,3%), parfois (37,5%) souvent
(18,8%) et très souvent (12,5%), et enfin l’absence de certains sites essentiels (37,5%),
parfois (18,8%) souvent (37,5%) et très souvent (6,3%) qui semblent poser le plus de

172
Deuxième partie ─ De l’observation des usages à celle des usagers

problèmes pour les veilleurs. Seulement onze personnes ont répondu à la question sur le
manque de labellisation car ce terme n’était pas très bien compris. L’incompatibilité avec
un firewall fournissait les résultats suivants : jamais (13,3%), rarement (20,0%), parfois
(33,3%), souvent (26,7%), très souvent (6,7%). La majorité (76,7%) reconnaissait
l’éventualité d’un conflit entre les outils de recherche et le système de protection du réseau.
Le problème d’intrusion dans le système informatique ne semblait pas relever des outils de
recherche : jamais (6,7%), rarement (58,3%), parfois (16,7%), souvent (8,3%).

INTERPRETATION DES RESULTATS

Synthèse
Le bilan de ces deux enquêtes ayant été établi, il est maintenant nécessaire d’en faire une
synthèse. Pour la population étudiée, l’apprentissage se fait en général par autoformation.
Cependant, certaines personnes ont eu une initiation à l’informatique dans le cadre du
système scolaire, notamment les étudiants des Grandes Écoles. La majorité des internautes
apprennent à utiliser un ordinateur par eux-mêmes car l’usage est devenu assez facile et
convivial grâce à l’interface graphique. Au demeurant, lorsque l’internaute est confronté à
un problème, il fait appel à un ami ou à une autre personne. Dans certaines Grandes Écoles,
un site d’aide existe. Ainsi les étudiants en difficulté laissent un message et reçoivent des
conseils d’un spécialiste.

Les personnes interrogées pour la plupart (en milieu universitaire et en milieu


professionnel) utilisent un moteur de recherche en première démarche à partir d’un ou
plusieurs mots-clés. Peu d’internautes utilisent un agent intelligent ou un métamoteur. Très
peu d’usagers se servent de la fonction « Recherche Avancée ». Cependant le second
groupe observé se sert d’un agent ou d’un métamoteur à 6,7% respectivement.

Google et Yahoo ensemble représentent 92% des choix en première réponse et 75% en
seconde. La majorité (62%) du premier groupe utilise les moteurs à des fins personnelles et
professionnelles. La majorité (77,5%) des répondants du milieu universitaire ne connaissait
pas le terme d’agent intelligent. Seulement 7% des personnes interrogées avaient téléchargé
un logiciel du type agent intelligent. Les professionnels s’intéressent davantage à cette
technologie, 71% d’entre eux ont téléchargé un produit et 40% d’entre eux ont acheté ce
type de logiciel. Ces usagers se servent d’un moteur dans un premier temps, puis d’un

173
Les agents intelligents sur Internet : enjeux économiques et sociétaux

métamoteur pour élargir une requête vers des sources non indexées par Google. Ils utilisent
un agent logiciel pour suivre l’évolution d’un site ou d’un thème et peuvent fournir des
définitions probantes car ils ont probablement lu des articles ou des ouvrages sur le sujet.

Il est évident que le moteur de recherche représente l’interface indispensable pour tout
usager d’Internet. On a observé également que la gratuité joue un rôle prépondérant car peu
d’internautes achètent des logiciels agents. Les utilisateurs, en effet, obtiennent des résultats
satisfaisants grâce aux dispositifs informatiques mis à leur disposition. Google est considéré
comme le plus efficace, le plus pertinent et le plus rapide.

Ce moteur peut s’employer pour la recherche documentaire, la vérification


orthographique (des mots ne faisant pas partie du dictionnaire du correcteur de Microsoft
Word), la traduction automatique et même la veille thématique et le suivi des actualités.

Limites des résultats et difficultés rencontrées


Le milieu professionnel nous a posé problème. Nous avons contacté des cabinets par
téléphone : très peu ont voulu répondre à notre enquête. En effet, ces entreprises
spécialisées dans la collecte d’informations ne voulaient pas révéler leur choix en matière
d’outils de recherche. Contactés par e-mail, certains ont répondu : « Nous ne tenons pas à
répondre à ce questionnaire. » Il nous semble que l’importance de la confidentialité joue
un rôle important dans ce secteur extrêmement concurrentiel. Ces refus nous ont empêché
de faire des généralisations sur les pratiques de ce groupe. Néanmoins, par le biais de deux
forums, nous avons reçu des réponses : certains veilleurs ont envoyé des e-mails à partir de
sites et d’adresses cachant l’identité de leur entreprise.

Nous avons proposé une interprétation très dépouillée de ces résultats pour éviter d’y
projeter notre propre perception de l’objet de cette thèse. Un certain nombre de questions
reste à examiner, portant par exemple sur le téléchargement des barres d’outils.

Lorsque l’on s’intéresse à la diffusion et à l’appropriation d’une nouvelle technologie, la


manière dont les usagers se représentent l’objet de l’étude s’impose. L’analyse de celle-ci
peut révéler les espoirs et les craintes qu’engendre la technique.

174
Deuxième partie ─ De l’observation des usages à celle des usagers

2.3. ENQUETE SUR LA REPRESENTATION DE L’INTELLIGENCE

ARTIFICIELLE

Les deux enquêtes précédentes n’avaient pas pour objectif de révéler la manière dont les
usagers se représentent le terme « agent intelligent », ni la façon dont ils interprétaient
l’adjectif « intelligent » qualifiant un objet (machine, un programme). Les théories de la
sociologie des usages mettent en évidence l’importance du rôle joué par les représentations
des usagers concernant les machines à communiquer. Aussi avons-nous entrepris d’étudier
ce problème afin de compléter notre interprétation de l’usage des outils de recherche.

Nous avons donc préparé un questionnaire portant sur l’adjectif « intelligent » et le


substantif « intelligence ». Il a été distribué auprès d’étudiants en droit, économie, sciences
sociales et sciences exactes à l’Université de Paris II et à l’École Polytechnique. Quelques
enseignants y ont également participé. L’enquête s’est effectuée au mois de mai, 2004.

Nous avons élaboré le questionnaire à partir d’une hypothèse : les usagers peuvent, dans
certains cas, qualifier certains objets d’intelligents. Néanmoins, nous ne savions pas dans
quelle mesure certaines entités pouvaient être considérées comme telles. S’agit-il, au
demeurant, de l’intelligence de l’objet en soi ou de celle de son inventeur ? Nous avons
donc dressé la liste suivante : agent, machine, outil, instrument, moteur et moteur de
recherche.

175
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Présentation du questionnaire
La première partie du questionnaire est intitulée « associations verbales ». Nous avons
présenté aux sujets une grille à deux colonnes. A gauche les termes agent, machine, outil,
instrument, moteur et moteur de recherche, à droite nous avons ajouté à chaque mot
l’adjectif intelligent : agent intelligent, machine intelligente, outil intelligent, etc. L’enquêté
devait écrire les quatre mots qui lui venaient à l’esprit en lisant ces termes. Cette technique
relève de la sémiométrie ouverte (ou spontanée) développée par Ludovic LEBART, Marie
PIRON et Jean-François STEINER310 .

Afin d’analyser les résultats, nous avons choisi six catégories de réponses pour chaque
couple mot / intelligent : humain, machine, institution, abstraction, autre et aucune réponse.
La catégorie « humain » comprenait tout ce qui se référait à l’homme, y compris le cerveau.
Par « machine » on englobait les logiciels et les systèmes d’information. La catégorie
« institution » comprenait les entités telles que la police, la CIA ou le FBI. Par
« abstraction », on désignait les noms (ou les adjectifs) comme la vitesse, la pertinence, etc.
Des termes peu fréquents entraient dans la catégorie « autre ». Nous avons également pensé
que l’absence de réponses était très significative. Après un tri des résultats, nous avons créé
une catégorie supplémentaire, les TIC. Nous avons choisi comme unité d’enregistrement le
mot et comme unité de contexte l’ensemble des réponses par couple mot / intelligent.

La seconde partie du questionnaire portait sur le substantif « intelligence ». Nous avons


demandé aux enquêtés de définir le terme. Ensuite, il leur fallait préciser le degré
d’intelligence d’un chien. Pour cette question, quatre modalités étaient prises en compte :
fort, moyen, faible ou zéro. Enfin, nous leur avons posé la question suivante : A votre avis,
quel est l’animal le plus intelligent à part l’homme ? Pourquoi ? Pour cette dernière
question, nous avons établi une grille d’analyse à six catégories : le singe, le dauphin, le rat,
autre animal, aucun animal et sans réponse.

Nous avons voulu savoir si les sujets accordaient à des animaux les capacités qu’ils
avaient explicitées en définissant le concept d’intelligence. Par la suite il nous était possible
de comparer ces résultats avec leurs réponses sur les objets intelligents.

310
Ludovic LEBART, Marie PIRON et Jean-François STEINER, La Sémiométie, Essai de statistique
structurale, Paris, Dunod, 2003.

176
Deuxième partie ─ De l’observation des usages à celle des usagers

La troisième partie, « perception de la machine intelligente », avait pour objectif de


déterminer la manière dont les sujets réagissaient par rapport à l’hypothèse de l’intelligence
artificielle forte. Nous leur avons laissé le soin de compléter les phrases suivantes, c’est-à-
dire d’indiquer les conséquences d’une affirmation :

Si la machine devenait intelligente un jour…

Les interfaces intelligentes seraient…

Les logiciels ne seront jamais vraiment intelligents parce que…

Les interactions avec les machines et les programmes dans les années à venir
impliqueraient…

Si je développais un programme intelligent, je l’appellerais…

Pour la première question, nous avons construit une catégorisation à partir des réponses
fournies : danger, remplacer l’homme, extinction de l’homme, (la machine) esclave de
l’homme, utopie ou progrès, autre réponse.

Une dernière question portait sur l’art et était formulée ainsi : Quels films ou romans
vous viennent à l’esprit après avoir rempli ce questionnaire ? L’objectif était de déterminer
l’impact culturel sur la manière dont les usagers percevaient les objets intelligents. Force
est de constater qu’on ne peut pas établir une relation causale entre l’impact du cinéma et la
crainte des robots. Cette question ne peut que fournir quelques éléments d’interprétation.

Pour finir, nous avons relevé des informations sur le sujet : son âge, son sexe, ses études
et ses préférences en matière de cinéma et de littérature. Les enquêtés devaient suivre
l’ordre du questionnaire, c’est-à-dire qu’ils ne devaient pas le lire dans son ensemble au
préalable. Le questionnaire est présenté en annexe311.

Analyse et interprétation des résultats

Associations verbales

Le mot « agent » est caractérisé par des compléments de nom, notamment agent de
police, de change, de sécurité, etc. Quelques exemples désignaient des entités non humaines

311
Cf. annexe 9.
177
Les agents intelligents sur Internet : enjeux économiques et sociétaux

comme les « virus ». Pour la plupart des sujets, un agent est un être humain qui exécute une
tâche de contrôle, ou qui travaille pour une assurance ou une banque. L’espion est cité
plusieurs fois. Certains sujets évoquaient des concepts tels que dangerosité, brillance,
esprit. Certains étudiants en sciences mentionnaient des mots comme les adjectifs
« bactérien, viral » et le substantif « chimie ».

L’agent intelligent était perçu à 35,4% comme un être humain. Les sujets évoquaient
James Bond, agent secret, des professions comme celles d’avocat, de technicien, de
chercheur, des intellectuels et le savant Pasteur. La machine n’accueillait que 10% des
réponses, notamment moteur, robot, ordinateur, machine future. L’institution représentait
9% avec la CIA et la police. Les termes abstraits étaient très abondants (23%) avec des
adjectifs tels que « riche, efficace, rapide, autonome, inventif », et des substantifs comme
« substitution, réflexion, cataclysme ». Toutefois, 15% des personnes interrogées n’ont pas
répondu à cette question.

Le mot logiciel ne faisait pas partie du corpus. Les personnes interrogées ne


connaissaient pas le terme appliqué à un programme. Un agent intelligent est
essentiellement un humain (ou le cerveau), rarement un ordinateur, et évoque souvent des
concepts. Les TIC n’étaient évoquées que deux fois (6%). On constate aisément, comme le
montre notre première enquête, que peu d’étudiants connaissent le terme décrivant un
programme informatique.

Le terme « machine » évoquait des appareils électroménagers, des machines


industrielles, le robot, l’ordinateur, l’usine. Des concepts tels que le capital, l’automatisme,
la productivité, l’aliénation et le langage y figuraient également. Des économistes ou
industriels comme Taylor, Ford et Marx étaient cités. Les TIC étaient représentés par la
calculatrice, le téléphone, le tout-électrique, le fax. L’imaginaire était présent avec
Terminator et La machine à remonter le temps.

L’expression « machine intelligente » était très évocatrice des TIC (32%), notamment le
robot, l’ordinateur, le téléphone, la calculette, les réseaux, l’IA. Les termes abstraits (20%)
comprenaient des adjectifs comme « évolutif, efficace, rapide, informatisé » ; et des
substantifs comme « programmation, perfectionnement, innovation, autonomie,
indépendance ». L’humain et les « sans réponses » ne représentaient que 3% chacun. Une
machine, TIC ou autre, était citée à 41%. Pour les enquêtés, la machine peut être qualifiée

178
Deuxième partie ─ De l’observation des usages à celle des usagers

d’intelligente, surtout celles faisant partie des nouvelles technologies. L’imaginaire était
présent dans le corpus par les substantifs « cyborg » et « androïde ».

Le mot « outil » comprenait essentiellement les outils de bricolage et de jardinage.


Cependant, le langage (humain) et l’informatique (Excel, Windows, logiciel) étaient
évoqués. Des termes abstraits tels que « construction, moyen, solution, aide et réparation »
indiquaient la fonction des outils.

Pour « outil intelligent », les sujets citaient les TIC à 20%, des machines à 39%,
l’abstraction à 21%, avec un taux de 15,8% pour les sans réponse. Les TIC comprenaient
l’ordinateur, le logiciel, le logiciel programmeur, le processeur, la calculatrice, l’outil
automatique. Les termes abstraits englobaient « solution, innovation, polyvalence,
interprétation, rapidité et analyse ». On admettait donc à 39% l’emploi de l’adjectif
intelligent pour le nom commun outil.

Le mot « instrument » évoquait essentiellement les instruments de musique (guitare,


piano, violon) avec quelques références à la chirurgie ou à la navigation.

Le terme « instrument intelligent » produisait un taux élevé de sans réponse (15,8%),


avec 27% pour la machine, 23% pour l’abstraction et 16,5% pour les TIC. On peut noter
dans la catégorie TIC, « le GPS, le synthétiseur, le sondeur, le piano électrique,
l’instrument de musique autonome et le moteur de recherche. » Les termes abstraits
comprenaient « autonomie, efficacité, adaptation, manipulation, fonctionnement ».
L’adjectif « intelligent » peut qualifier cet objet mais il nous semble que l’occurrence est
moins fréquente que pour le terme outil.

Le mot « moteur » désignait essentiellement l’automobile, les nuisances comme « la


pollution », les termes abstraits associés comme « énergie, impulsion », et les processus
comme « refroidissement, explosion, transmission et rotation ».

Le « moteur intelligent » était caractérisé par le taux élevé de sans réponse (36%), avec
25% pour la machine, 23,8% pour l’abstraction et seulement 12,5% pour les TIC. On
évoquait le métamoteur, le « GPS et le moteur de recherche ». Google et Yahoo étaient
cités une fois chacun, de même que Jaguar et BMW. La catégorie abstraction comprenait
des termes associés à l’informatique et à l’IA, notamment, « autonome, recherche, analyse,
exploration, performance, rapidité, mémoire, compréhension, régulation et raisonnement ».

179
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Là encore, l’adjectif peut qualifier un moteur mais l’occurrence est moins élevée que pour
le précédent terme.

Pour le « moteur de recherche », quarante et une citations concernaient Google contre


dix-huit pour Yahoo, Wanadoo (quatre), Voila (trois), AOL (deux), Lycos (deux) et MSN,
Tiscali, Microsoft et Copernic une seule citation chacun. Des termes abstraits associés aux
moteurs apparaissaient : « rapidité, fiabilité, précision, vitesse, simplification » de même
que « développement, culture, trouvaille ». Si l’on analyse les réponses citant Google, les
termes qui suivent peuvent indiquer le jugement des internautes sur ce moteur de
recherche : « rapidité, efficacité trouvaille » ; « Google, Yahoo, rapidité recherche » ;
« Internet, Google, compliqué, Google, Internet, infos, rapidité ». Les adjectifs ou
substantifs sont plutôt positifs à part « compliqué ».

Le moteur de recherche intelligent générait les réponses suivantes : la machine 23,6% ;


l’abstraction 27%, les TIC 20%, et les sans réponse 23,6%. Google est cité quinze fois,
Yahoo quatre et Copernic une seule fois. Certains termes abstraits comme « rapide,
classement, tri, compréhension, classification, autonomie, facilité, efficacité, perfection »
sont évoqués.

L’adjectif « intelligent » peut donc qualifier un moteur de recherche, surtout Google. Au


demeurant, le couple moteur de recherche / intelligent est évocateur des qualités d’un bon
moteur de recherche. On considère le pourcentage des réponses citant la machine comme
autant de suffrages des sujets interrogés : l’adjectif « intelligent » peut qualifier ce terme.
Classons les termes en fonction de leur proximité avec le concept intelligent : Faisons de
même avec les réponses citant les TIC. Le plus proche est la machine (41%), suivie du mot
outil (39%), instrument (27%), moteur de recherche (23%), moteur (25%), et agent le plus
éloigné (10%). Pour les réponses TIC, nous avons machine (32%), moteur de recherche et
outil (20%), instrument (16%), moteur (12%) et agent (6%). Notons tout de même que 59%
des personnes interrogées n’ont pas cité une machine.

Le second groupe de questions portait sur la définition du concept d’intelligence. Nous


avons relevé la fréquence des réponses en fonction d’un concept significatif. Pour ce faire,
nous avons lemmatisé les termes : par exemple « comprendre » et « compréhension »
donnaient le lemme « compr ». Soixante-huit personnes ont répondu à cette question :
Comment définissez-vous l’intelligence ?

180
Deuxième partie ─ De l’observation des usages à celle des usagers

Si nous faisons la synthèse des réponses, nous aurons la définition suivante :


l’intelligence est la capacité à s’adapter (treize), à comprendre (treize), à analyser (treize), à
résoudre un problème (neuf). Ensuite il s’agit de pouvoir connaître (trois), raisonner (trois),
organiser (trois), assimiler (trois) et apprendre (trois). La conscience et le bon sens étaient
cités trois fois chacun, la mémoire et la création deux fois chacune, l’invention et la
communication une fois chacune. Les attributs de l’intelligence sont la rapidité (treize) et
l’efficacité (quatre). Il est intéressant d’observer que cette définition synthétique correspond
aux attributs décrits dans la littérature relative aux agents intelligents, notamment
l’adaptation, la résolution des problèmes et l’apprentissage.

Les questions suivantes avaient comme ambition de connaître l’attitude des sujets
concernant l’intelligence des animaux. Admettent-ils que d’autres espèces sont dotées
d’intelligence ? La première question portait sur l’intelligence du chien, la seconde sur
l’animal le plus intelligent, selon les enquêtés, en dehors de l’homme.

Concernant le chien, les réponses étaient très variées. Nous avons synthétisé les résultats
en fort (12,9%), moyen (30,6%), faible (48,4%) et zéro (8,1%) sur soixante-deux
observations. Nous constatons que 43,5% des sujets accordent un certain niveau
d’intelligence aux chiens contre 56,5% qui jugent celui-ci faible ou inexistant. La seconde
question fournissait les résultats suivants. Le singe venait en tête avec 46%, à cause de sa
proximité avec l’homme. Le dauphin accueillait 25,4%, le rat 2,8% et les autres animaux
cités (21,1%) : le chien (six fois), le cheval (cinq fois), le chat (deux fois).

Les sujets admettaient donc que les animaux jouissaient aussi d’un certain degré
d’intelligence, inférieur cependant à celui de l’homme. Pouvaient-ils admettre aussi qu’une
machine ou un programme auraient un jour un degré d’intelligence comparable à celui de
l’humain ? C’était l’objectif du groupe de questions suivant.

La première question portait sur l’éventualité d’une machine intelligente. On laissait au


sujet le soin de compléter la phrase : Si la machine devenait vraiment intelligente un
jour….Implicitement on posait la question suivante : « Quelles en seraient les
conséquences ? » Nous avons créé six catégories. Voici les résultats : danger (35%) ;
remplacement (remplacer l’homme) 15,2% ; extinction (de l’homme) 15,2% ; servitude (la
machine esclave de l’homme) 7,6%, utopie (progrès pour l’homme) 22,8%. Les autres
réponses représentaient 3,8%.
181
Les agents intelligents sur Internet : enjeux économiques et sociétaux

Si on totalise les catégories danger et extinction, on arrive à 50% contre 28,8% pour les
réponses favorables à l’émergence d’une machine intelligente. La catégorie remplacement
était très ambiguë dans la mesure où elle pouvait impliquer soit un avantage (moins de
travail pour l’homme) soit un inconvénient (chômage massif ou suppression de l’homme).
Les réponses ne fournissaient pas assez d’informations pour trancher sur cette dichotomie.

La question suivante devait nous renseigner sur la manière dont les sujets envisageaient
une interface intelligente : Une interface intelligente serait… Les résultats, extrêmement
variés, ne permettaient pas de catégoriser. Cependant, nous avons observé quelques
concepts comme « l’autonomie, l’adaptation à l’usager, la prise d’initiatives,
l’autogestion, l’organisation de l’information en fonction des besoins de l’utilisateur, la
simplicité d’usage, la capacité de comprendre l’humain et le langage naturel, la
personnalisation, la réactivité, la proactivité et la fiabilité (ne tombe jamais en panne) ».
L’ensemble des réponses était plutôt positif.

La question suivante orientait en quelque sorte les sujets loin de l’éventualité d’une
machine intelligente : Les logiciels ne seront jamais vraiment intelligents parce que… On
invitait le sujet à chercher les raisons qui empêcheraient l’émergence d’une machine
intelligente.

Nous avons construit six catégories de réponses : nécessité de l’humain (43,47%), les
limites de l’intelligence artificielle (25,37%), la création de la machine par l’homme
(19,4%), la différence entre l’homme et la machine (29,8%), l’importance du vivant (6%) et
le danger (1,5%). Ainsi, pour les sujets de cette enquête, les logiciels ne seront jamais
vraiment intelligents parce que : « l'homme reste indispensable » ou « rien ne peut
remplacer l'intelligence de l'homme ». « La main de l'homme est nécessaire pour introduire
un contenu. » Qui plus est, les machines sont les créations de l’homme : « l'homme les
produit », « Elles sont programmées et conçues par nous », « elles sont manipulées par les
hommes. »

L’intelligence artificielle a ses limites : « rien ne peut remplacer l'intelligence de


l'homme », « ils (les programmes) ne tiennent pas compte de toutes les situations
possibles », « ils ne font qu'effectuer des calculs », « ils ne font qu'envoyer des réponses à
des mots. Ils ne réfléchissent pas. » « La technologie a des limites et l'intelligence est une

182
Deuxième partie ─ De l’observation des usages à celle des usagers

notion imperceptible qui tend vers l'infini. » « Ils ne sauront pas réagir dans le monde
extérieur. » « Ils seront toujours incapables d'innover et de s'adapter. »

D’autres réponses fournissent des explications : c’est qu’« ils manquent de neurones »
« ils n'ont pas de sentiments »312, « ils n'auront jamais de personnalité propre », « ils ne
peuvent pas dépasser l'homme ». Certaines réponses mettent en avant la différence
fondamentale entre la machine et l’homme : « l'homme est doué de certains sens que la
machine ne connaît pas ». Les machines « n’ont pas de conscience. » Il est « quasi
impossible de copier l'esprit humain et sa faculté de s'adapter à son environnement. » Cette
adaptation reste l’apanage du vivant. « Elles n'auront jamais l'intelligence émotionnelle. »
L’impossibilité de créer des programmes intelligents proviendrait du fait que nous ne
connaissons pas très bien le cerveau humain et ce qu’est l’intelligence : « il faudrait
comprendre d'abord le cerveau humain, ce n'est pas pour aujourd'hui. »

Cette question nous renseigne sur les idées reçues concernant la machine intelligente.
Une seule réponse met en évidence un éventuel danger. Pour les autres réponses, nous
sommes protégés par les limites de notre technologie et par notre ignorance et c’est
l’homme qui maîtrise la situation. Il faut toutefois noter que la formulation de cette
question invitait le sujet à une réponse qui nierait l’émergence d’un logiciel intelligent. De
toute évidence, les sujets ne partageaient pas l’hypothèse de l’IA forte313.

La question suivante invitait le sujet à se prononcer sur l’interaction entre l’homme et la


machine dans les prochaines années. Nous voulions savoir comment les enquêtés
envisageaient les développements technologiques en matière d’interface intelligente.

Nous avons construit sept catégories. Voici les résultats : l