Agents intelligents sur Internet : enjeux économiques
Agents intelligents sur Internet : enjeux économiques
sociétaux
John Wisdom
Panthéon-Assas : Rapporteur
1
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Avertissement
2
DÉDICACE
A Lindley
A Gizella
A Myriam, Lesley, Didier, Eva, Cédric
A John et Frances
A Alexandre
3
Les agents intelligents sur Internet : enjeux économiques et sociétaux
REMERCIEMENTS
4
RÉSUMÉ
Le terme agent intelligent désigne dans l’usage spécialisé de la veille un outil de
recherche. Il correspond à un logiciel de type métamoteur comportant de multiples
fonctionnalités de recherche et de traitement de l’information. Or, depuis quelques années,
les moteurs de recherche ont intégré la technologie agent pour devenir de véritables
systèmes multi-agents et ont conquis le marché de la recherche informationnelle. Ces
derniers permettent de réduire l’entropie du Web et ils commencent à apporter des solutions
au problème de la surcharge d’informations sur le disque dur de l’utilisateur. En effet, de
nouveaux systèmes capables d’indexer le Net et le disque de l’internaute sont disponibles.
Ainsi devraient émerger des outils complets d’indexation et de traitement de l’information.
Si cette technologie comporte bien des avantages pour l’utilisateur, elle pose des problèmes
de confidentialité et présente des dangers de faire naître une société sous constante
surveillance. Malgré ces risques de dérapage, la technologie agent devrait mettre à la portée
de tous les hommes et femmes l’énorme documentation de l’humanité, à la fois littéraire et
scientifique, sous forme de bibliothèque universelle. Par ailleurs, la convergence des
moteurs de recherche et de la téléphonie mobile devrait donner un pouvoir accru aux
consommateurs.
Nous avons posé comme hypothèse directrice que les moteurs de recherche ont
incorporé les fonctionnalités autrefois associées aux logiciels agents. Ils étendent leurs
technologies sur le PC de l’usager. Ainsi les agents intégrés dans les moteurs ou portails
contribuent à gérer les évolutions économiques et sociétales d’Internet.
Notre hypothèse a été validée à partir de l’observation des usages et des utilisateurs et de
l’analyse des documents scientifiques du domaine. Nous avons proposé un modèle à la fois
explicatif du succès du moteur de recherche Google et prédictif des évolutions possibles.
Il nous reste à suivre les développements des interfaces spécialisées et des problèmes
relatifs à la présence des moteurs sur le disque de l’usager.
5
Les agents intelligents sur Internet : enjeux économiques et sociétaux
The term intelligent agent signifies in the specialized terminology of Internet monitoring
a search tool. It corresponds to software of the meta-search engine type comprising of many
search and information processing functions. However, for a few years, the search engines
have integrated agent technology to become true multi-agent systems and conquered the
information search market. The latter make it possible to reduce the entropy on the Web,
and they are beginning to manage the problem of data overload on the end-user’s hard disk.
Indeed, new systems able to indexer both the Net and the PC hard disk are being tested.
Thus complete all-round search tools for data-processing should emerge. If this technology
comprises many advantages for users, it poses problems of confidentiality and presents
dangers to give birth to a global society under constant monitoring. In spite of these risks,
agent technology should put at everyone’s disposal the whole of mankind’s literary and
scientific works in the form of a universal library. Moreover, the coming together of search
engine technology and mobile telephony should enhance the negotiating power of the
consumer.
Our hypothesis stated that search engines had incorporated the functions associated with
intelligent agents previously. They are extending their presence onto the user’s hard disc.
Thus, the agents contribute to the management of the Internet as it develops economically
and socially.
Our hypothesis was validated after observing the usage and the users and after analysing
scientific documents in the field of study. We have endeavoured to propose a model
explaining the success of Google, and predicting possible developments.
We still must follow how specialized interfaces will emerge and the problems relating to
the presence of search engine technology on the user’s hard disc.
6
SOMMAIRE
DÉDICACE............................................................................................................. 3
REMERCIEMENTS................................................................................................ 4
RÉSUMÉ ................................................................................................................ 5
SOMMAIRE............................................................................................................ 7
1.1. Introduction...................................................................................................................................... 45
7
Les agents intelligents sur Internet : enjeux économiques et sociétaux
2.4. Comment les éditeurs de logiciel se représentent les agents intelligents ................................... 189
8
Bibliothèque d’Alexandrie ou Tour de Babel........................................................................................... 239
Myriades de traces pour les archéologues futurs ...................................................................................... 243
9
Les agents intelligents sur Internet : enjeux économiques et sociétaux
10
INTRODUCTION GÉNÉRALE
Curieusement, dans sa dernière version, Le Petit Robert a ajouté une définition propre à
l’intelligence informatique libellée de la manière suivante : « qui possède des moyens
propres de traitement et une certaine autonomie de fonctionnement par rapport au système
informatique auquel il est connecté ». Pourtant, l’idée même d’une machine indépendante
capable de traiter des informations et d’agir sans intervention humaine n’est pas anodine
sur le plan éthique, économique et social. La littérature et le cinéma ont d’ailleurs exploité
ce thème qu’ils ont progressivement introduit dans la conscience collective.
Dans la pratique, sont apparus dans les années 1990, des programmes informatiques
présentant ces caractéristiques. L’essor d’Internet à partir de 1995 a, en effet, favorisé la
création de programmes capables de récupérer et de filtrer des documents disponibles sur le
réseau des réseaux. On leur a donné, à tort ou à raison, le nom d’« agent intelligent ». Mais
de même que l’intelligence se rapporte généralement à l’humain, de même le terme agent,
selon Le Petit Robert, s’applique à une « personne chargée des affaires et des intérêts d’un
individu, d’un groupe ou d’un pays pour le compte desquels elle agit » ou « jouant le rôle
d’intermédiaire dans les opérations commerciales, industrielles et financières ». En
1
Édition 2000.
11
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Bien que la recherche sur les agents informatiques au sens le plus large remonte aux
années soixante-dix, ce terme a été utilisé pour la première fois en 1997 pour décrire les
agents programmes et les agents d’interface intelligente conçus pour Internet. En
particulier, l’article de Gilles DERUDET3, intitulé « La révolution des agents intelligents »
dresse un panorama de cette technologie émergente. Quelques ouvrages4 paraissent à la
même époque sur ce sujet.
Quoi qu’il en soit, les agents intelligents proposés au public sur Internet sous forme de
logiciels n’ont pas connu le succès escompté. Les usagers leur ont préféré les moteurs de
recherche jugés plus simples d’utilisation, plus rapides et plus efficaces. Quelles sont donc
les causes de l’engouement généré par ces derniers au détriment des premiers ? Quelles
sont les conséquences de ce choix sur le développement de la société de l’information ?
Que sont devenus, dans ces circonstances, les agents intelligents ? Autant d’interrogations
auxquelles nous tenterons d’apporter des éléments de réponse.
Ainsi, nous avons choisi d’étudier les enjeux économiques et sociétaux des agents
intelligents d’Internet en observant les usages des outils de recherche. Notre intérêt pour
cette technologie est né des enseignements suivis en 1997 à l’Université de Paris II, et à
celle de Paris VII dans le cadre d’un Diplôme d’Etudes Approfondies en nouvelles
2
La neuvième édition du Dictionnaire de l’Académie Française ne fait aucune mention du terme. Elle ne donne
que les définitions du mot « agent » appliqué aux humains. Sur le site ATILF
[Link] , consulté le 5 juillet 2004.
3
Gilles DERUDET, « La révolution des agents intelligents », Internet Professionnel, N° 9, mai, 1997, pp. 74-79.
4
A. CAGLAYAN, ET C. HARRISON, Agent Sourcebook, A Complete Guide to Desktop, Internet, and Intranet
agents, Wiley Computer Publishing, New York, 1997.
J.M. BRADSHAW, Software Agents, AAAI Press/ The MIT Press, Boston, 1997.
MÜLLER, Jörg P., The Design of Intelligent Agents, A Layered Approach, Springer, Berlin, 1996.
12
Introduction Générale
L’originalité du sujet réside dans le fait que cette technologie récente est encore mal
connue. En effet, Internet tous publics ne date que de 1995. Son essor a été rendu possible
par l’invention du World Wide Web et par la création du navigateur Netscape. Dès lors, le
Web marchand a pu voir le jour. Bien que la notion d’agent en informatique ait d’ores et
déjà fait l’objet de nombreuses parutions avant 1995, peu de publications abordaient la
question des usages et des attitudes des usagers face aux logiciels dédiés à Internet.
Néanmoins, nous attirons l’attention sur le fait que les pratiques des usagers évoluent
rapidement et sont susceptibles de modifier le paysage multimédia. Ainsi, un logiciel aussi
populaire soit-il peut être amené à disparaître du jour au lendemain. Le sort de Netscape en
est une illustration puisqu’il a été remplacé par Internet Explorer, intégré dans le progiciel
Windows de Microsoft. En d’autres termes, une killer application, selon l’expression
consacrée par les Américains (à savoir une innovation révolutionnaire et rapidement
appropriée par les usagers) peut à tout moment bouleverser le marché et rendre obsolète
13
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Quoi qu’il en soit, il est possible de tracer les grandes lignes des évolutions
technologiques en la matière sur la période des quinze dernières années. Aux débuts
d’Internet en France, au milieu des années 90, la performance des moteurs de recherche
restait très médiocre. Tous les espoirs se portaient alors sur les prouesses escomptées des
agents intelligents. Pourtant, avec l’arrivée de Google, à partir de 1998, les moteurs se sont
imposés grâce à l’amélioration de leur base d’indexation et de leurs algorithmes de tri et de
classement. L’analyse des usages, à ce jour, montre très clairement que les moteurs
constituent un enjeu économique majeur.
A titre indicatif, en 2003, une partie importante des flux d’informations transite par les
moteurs de recherche qui centralisent6 les stocks de données sur Internet et les rendent
accessibles. On estime qu’en 2003 le chiffre d’affaires publicitaire7 engendré par les
moteurs était de 3 milliards de dollars avec un taux de croissance annuelle de l’ordre de
35%.
5
Environ 10% du temps selon une étude de première position XITI (entre janvier et décembre 2001), publiée par
[Link], « les parts de marché des moteurs de recherche », (sans date), article consulté le 2 juillet 2004,
[Link] Cependant, en novembre 2004, 39% du trafic provient des
moteurs de recherche, Mediametrie-eStat ,Communiqué de Presse du 19/11/2004, « Origine du trafic », page
consultée le 7 janvier 2005. Cf. annexe 15, [Link]
6
En index et en mémoire-cache.
7
Lev GROSSMAN, « Search and Destroy », Time, 2 février 2004, p. 36.
14
Introduction Générale
Cela étant, il subsiste un intérêt pour les logiciels agents spécialisés dans la recherche
informationnelle sur Internet. Ces programmes sont développés par de petites sociétés
financées par le capital risque et utilisés par des professionnels de la veille. A titre indicatif,
les cadres commerciaux, documentalistes ou veilleurs professionnels travaillant pour le
compte d’autres sociétés constituent cette catégorie.
Cependant, aucun agent logiciel n’a, à ce jour, produit un impact significatif sur la
demande. Malgré cela, les professionnels suivent attentivement l’évolution de cette
technologie tout en se servant essentiellement des moteurs et des annuaires. En d’autres
termes, l’utilisation des logiciels spécialisés dans la veille sur Internet reste pour l’instant
expérimentale.
8
Société spécialisée dans la technologie de recherche. Achetée le 23 décembre 2002 pour 235 millions de
dollars. Tom KRAZIT, « Yahoo buys search firm Inkromi for $235m”, IDG News service, Computerworld, le
23 12 2002, [Link] consulté le 31 mai 2005.
9
Acheté le 15 juillet 2003, pour 1,6 milliard de dollars. Source : Stéphanie OLSEN, Margaret KANE, « Yahoo
to buy Overture for $1.63 billion », [Link], le 14 7 2003, [Link]
consulté le 31 mai 2005.
10
Acheté le 23 avril 2003 pour 70 millions de dollars, le moteur grand public de la firme Fast est alltheweb.
Source : Margaret Kane, « Overture to buy search services », [Link], le 25 février 2003,
[Link] consulté le 31 mai 2005.
11
Acheté le 19 février 2003 pour 140 millions de dollars. Source : Margaret Kane, « Overture to buy search
services », [Link], le 25 février 2003 consulté le 31 mai 2005.
12
Selon Panorama Médiamétrie-eStat d’octobre 2004, Google représente 73% du trafic, Yahoo 8%, Wanadoo et
Voila 6%, et MSN 5%. Altavista ne représente qu’1% en France. Notons que les deux fournisseurs d’accès
cités sont utilisés également pour faire des requêtes.
[Link] consulté le 28 novembre 2004.
15
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Pour toutes ces raisons, la presse et la télévision se focalisent sur la concurrence entre les
trois portails les plus fréquemment utilisés par les internautes. Ainsi, l’introduction en
bourse de Google a été largement médiatisée, tout comme le conflit entre cette firme
californienne et Microsoft pour dominer le marché.
Cela étant, une technologie reste virtuelle tant qu’elle n’est pas diffusée et appropriée par
des utilisateurs. Si nous nous sommes au préalable attaché à la mise en place de la
technologie agent par le truchement des moteurs de recherche, notre seconde démarche
concerne l’internaute.
Pour comprendre les raisons de l’adoption des moteurs par la majorité des internautes au
détriment des logiciels du type métamoteur, nous avons choisi d’observer deux groupes
d’usagers : les étudiants et les universitaires d’une part, et les professionnels de la veille
d’autre part.
Le premier groupe est constitué par les étudiants, les enseignants, les chercheurs, et les
documentalistes de plusieurs établissements d’enseignement supérieur et de recherche à
Paris et en région parisienne13. Nous justifions ce choix de la manière suivante. Nous avons
accès à une population composée d’universitaires et d’étudiants qui peuvent se connecter
facilement à Internet et qui s’en servent quotidiennement. Ils l’utilisent soit comme
messagerie, soit comme moyen de recherche documentaire ou informationnelle. Il nous est
possible de suivre l’évolution de leurs usages dans le temps.
D’ailleurs, l’échantillon observé est constitué par des premiers groupes à adopter l’usage
d’Internet en France, à la fois pour ses loisirs et ses études, car des salles informatiques ont
été mises à leur disposition dès 1995. L’observation de ce milieu nous semblait d’autant
plus réalisable que nous avons, par nos activités d’enseignant, accès à trois grands campus
dispensant des enseignements fort diversifiés. Par conséquent, il ne nous a pas été difficile
de distribuer nos questionnaires.
Cependant, nous avons intégré dans notre corpus d’usagers un groupe de contrôle plus
particulièrement concerné par l’évolution des agents intelligents de type logiciel. Nous
avons pensé que ce groupe nous fournirait des renseignements pertinents sur ces logiciels
13
Il s’agit de l’Université de Paris II, de l’ENST et de l’École Polytechnique.
16
Introduction Générale
qui n’ont pas pénétré le marché grand public. D’ailleurs, il est possible que certains
produits puissent avoir un impact sur la demande des entreprises.
C’est pourquoi nous avons distribué deux questionnaires, le premier sur support papier
auprès des étudiants et des universitaires afin de connaître leurs usages en matière de
recherche d’information sur Internet. Quant au second, il a été proposé aux professionnels
par le biais du courrier électronique. Dans cette perspective, nous avons posté un message
sur l’un ou l’autre des deux forums. Les personnes intéressées nous ont alors adressé une
demande de questionnaire qu’ils nous ont ensuite retourné par attachement de courrier
électronique.
Pour préparer les enquêtes, nous avons procédé à des entretiens semi-directifs. Nous
avons interrogé certains spécialistes en économie et en sciences de l’information, et
quelques usagers engagés dans la veille économique. Afin d’approfondir notre
problématique, nous avons entrepris quelques interviews auprès d’experts après avoir
analysé les réponses des questionnaires.
L’analyse des contributions des forums spécialisés nous a également permis de connaître
les préoccupations des professionnels à l’égard de la technologie agent. Notre première
démarche consistait à faire un état des lieux d’une technologie qui avait fait l’objet, au
moins en apparence, d’un rejet des usagers et nous avons voulu en connaître la raison.
14
L’Association des professionnels de l’information et de la documentation, créée en 1963. Elle compte plus de
5600 membres. Site : [Link] consulté le 28 11 2004.
15
Veille-concurrence est un forum géré par MEDIAVEILLE ([Link] et
[Link] destiné aux professionnels de la veille et de l’intelligence économique, site :
[Link] consulté le 28 11 2004.
17
Les agents intelligents sur Internet : enjeux économiques et sociétaux
penché plus particulièrement sur les pages Web des éditeurs de logiciels et des sites Web
des journaux spécialisés dans l’économie d’Internet. Une partie de notre corpus
documentaire est constituée d’articles scientifiques sur le sujet d’agents intelligents,
essentiellement en langue anglaise. Nous nous attendions à un décalage important entre le
discours techniciste et la réception des usagers. Pour analyser nos résultats, nous avons
utilisé le logiciel Sphinx. Il s’agit d’une application de création d’enquêtes et d’analyse de
données, développée par la société le sphinx, installée à Annecy et à Grenoble16.
Afin d’intégrer notre recherche dans un contexte plus large, nous avons commencé par
poser le problème suivant: en quoi la technologie agent influe-t-elle sur le développement
de la société de l’information ? Cette expression est attribuée à Jacques Delors17, président
de la Commission Européenne en 1992. Selon M. Delors, la société de l'information ne
serait pas née avec Internet. Elle ne correspond pas uniquement à une simple transformation
technique car « le changement à l’œuvre dans la fusion de l’informatique et de
l’audiovisuel comme dans l’avènement des communications numériques implique bien
davantage qu’une révolution technologique supplémentaire18. » Il s'agit plutôt d'un
phénomène dynamique global, à la fois technologique, économique et sociétal.
L’expression décrit un modèle de société dans laquelle l'information s'échange de manière
planétaire et instantanée, sous une forme multimedia unique caractérisée par la
numérisation de toutes les formes de communication. « L’économie se dématérialise, des
activités productives s’externalisent, les services dominent, la détention comme la
circulation de l’information deviennent décisives19. » Les industries de la communication
comprenant l’informatique, l’audiovisuel, les télécommunications et le multimédia
contribuent ensemble à faire émerger ce secteur dynamique de l’économie. « L’ouverture
du monde multimédia (son-texte-image) constitue une mutation comparable à la première
révolution industrielle20. » C’est sur ce secteur que l'ensemble du processus d'innovation, de
production et d'échange s'appuie et se développe :
16
[Link]
17
Jacques DELORS, Pour entrer dans le XXIe siècle : emploi, croissance, compétitivité : le livre blanc de la
Commission des Communautés européennes, M. Lafon, Paris, 1994.
18
Idem, p. IV.
19
Ibid, p. 13.
20
Ibid, p. 22.
18
Introduction Générale
« Il ne s’agit pas d’imposer d’en haut un schéma d’autant plus abstrait qu’on ne sait pas si notre
intuition d’un bouleversement de notre vie quotidienne sera vérifiée. L’enjeu est bien plutôt
d’animer la rencontre des opérateurs de réseaux, des promoteurs des services électroniques et des
concepteurs d’applications, afin que les priorités des uns devenant des hypothèses solides de travail
pour les autres, le projet prenne corps. 21»
Notre corpus se limite aux outils de recherche d’information, que ce soit des agents
logiciels ou les moteurs ou métamoteurs. De même que nous n’examinons que les produits
destinés au grand public ou aux professionnels appartenant à de petites structures. Nous n’y
incluons pas les systèmes de gestion des connaissances, par exemple. En effet, les grands
groupes ne font que commencer d’investir dans cette technologie. En plus, il est trop tôt
pour connaître la manière dont celle-ci s’est implantée dans les milieux professionnels ou si
le KM connaîtra les succès escomptés.
21
Ibid, p. IV.
22
Le terme « information fatigue syndrome » a été créé par le psychologue David Lewis en 1996 et défini
comme la fatigue et le stress résultant d’une quantité excessive d’informations, « the weariness and stress that
result from having to deal with excessive amounts of information. », source :
[Link] consulté le 12 avril 2004.
19
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Trouver l’information dont on a besoin sur un moteur de recherche, cela pose également
d’autres problèmes. L’expérience et l’expertise de l’usager entrent en ligne de compte
malgré l’amélioration algorithmique des outils de recherche. Une requête réussie est
souvent l’affaire d’un choix judicieux de termes et parfois de découvertes inattendues.
Lorsque l’usager récupère un document, il n’a jamais la certitude que le site soit
authentique, qu’il ne s’agisse pas d’un canular ou d’une désinformation. La labellisation
des ressources sur Internet reste très insuffisante. Or ce facteur peut déterminer en partie la
confiance que l’usager a en un site Web, surtout commerçant. Les agents à l’avenir
devraient apporter des solutions à ce problème. Par ailleurs, le langage xML23 devrait
améliorer la lecture sémantique et par conséquent l’indexation des documents.
23
Une description complète d’xML (extensible markup language) : [Link] consulté le
30 11 2004.
20
Introduction Générale
Notre question de départ nous amène à nous demander comment les usagers se servent
des outils de recherche pour acquérir des documents sur Internet et quels sont les aspects
positifs et négatifs de ce processus sur le plan sociétal et économique. Comment expliquer
l’adoption des moteurs de recherche plutôt que les logiciels agents ? L’analyse de l’offre
technologique et des usages confirmés d’outils de recherche permet-elle de nous éclairer
sur les rapports entre la technique, le social et l’économique ? Nous chercherons à apporter
quelques réponses à cette question.
Nous proposons, comme hypothèse directrice, que les moteurs de recherche ont
incorporé les fonctionnalités autrefois associées aux logiciels agents. Ils étendent leurs
technologies sur le PC de l’usager. Ainsi les agents intégrés dans les moteurs ou portails
contribuent à gérer les évolutions économiques et sociétales d’Internet.
Les moteurs de recherche ont incorporé les fonctionnalités autrefois associées aux
logiciels agents. [1]
Il nous faut d’abord expliquer comment la technologie agent s’intègre dans les moteurs
et portails. Cette intégration constitue l’un des facteurs qui expliquerait leur appropriation
par le plus grand nombre d’usagers. La présence de l’IA, peut-être dérangeante, reste
invisible. Il nous semble vraisemblable que cette intégration technologique fait partie du
processus de concentration caractéristique du marché des logiciels d’une part, et du
processus de globalisation.
21
Les agents intelligents sur Internet : enjeux économiques et sociétaux
par les moteurs de recherche24. Ce processus qui consiste à faire adopter un programme sur
le PC de l’usager permettra de fidéliser ce dernier. Nous examinerons les conséquences de
cette stratégie. Nous expliquerons comment les barres d’outils, parmi d’autres dispositifs,
peuvent apporter des solutions au problème de surinformation et quelles sont leurs
véritables fonctions. Cette affirmation constitue la seconde partie de l’hypothèse directrice :
Ainsi les agents intégrés dans les moteurs ou portails contribuent à gérer les évolutions
économiques et sociétales d’Internet. [3]
Quel rôle l’imaginaire joue-t-il dans la diffusion d’une innovation ? Si le terme « agent
intelligent » est très riche en connotations et charges symboliques, le terme « moteur de
24
On peut mesurer ce trafic, non pas en temps passé sur un site, mais en nombre de requêtes par jour. Google,
par exemple, est réputé recevoir 200 millions de requêtes par jour. Source :
[Link] consulté le 10 09 2004.
22
Introduction Générale
Afin de répondre aux différentes questions de notre recherche, nous avons examiné
plusieurs cadres de référence. Ceux-ci nous ont fourni un ensemble de concepts et de
comptes rendus d’expériences susceptibles d’orienter notre investigation. Notre recherche
s’inscrit tout d’abord dans le cadre des sciences de l’information, plus précisément dans
celui de la sociologie des usages développée en France depuis une quarantaine d’années.
Nous faisons appel également aux théories économiques développées récemment afin
d’expliquer la nouvelle économie d’Internet et les modèles économiques émergents.
Ensuite, nous avons porté notre attention sur la théorisation de l’intelligence artificielle et
des agents intelligents.
D’autres auteurs ont proposé une théorisation des usages antérieurs aux débuts d’Internet
en France. A titre d’exemple, Victor SCARDIGLI insiste sur l’importance du contexte
social. Il oppose une vision techno-logique à une vision socio-logique. La première est « la
logique techniciste par rapport à la logique sociale de mise en place de nouvelles
25
Dominique WOLTON, Internet et après, une théorie critique des nouveaux médias, Flammarion, Paris, 1999.
26
Philippe BRETON, Le culte d’Internet, Une menace pour le lien social ?, La Découverte, Paris, 2000.
27
Philippe BRETON, L’utopie de la communication, La Découverte, Paris, 1992.
23
Les agents intelligents sur Internet : enjeux économiques et sociétaux
La technique devient un objet en soi, « un idéal qui assure le bonheur32 » dans tous les
domaines, un outil au service de l’économie et de la société. Il s’agit d’une vision utopique
de la technologie. Les avantages dépassent les nuisances33. La techno-logique peut devenir
une logique d’action ou une stratégie de prise de pouvoir, et cherche à imposer le bon usage
de l’innovation34. Elle définit le mode de diffusion des innovations dans la société
(irradiation ou impact)35.
28
Victor SCARDIGLI, Le sens de la technique, PUF, 1992 p. 22.
29
Idem, p. 22.
30
Ibid, p. 24.
31
Ibid, p. 23.
32
Ibid, p. 23.
33
Ibid, p. 23.
34
Ibid, p. 24.
35
Ibid, p. 24.
36
Anne-Marie, LAULAN, La résistance aux systèmes d’information, Rez (Actualité des Sciences humaines),
Paris, 1985, p.9.
24
Introduction Générale
37
Idem, p. 12.
38
Ibid, p. 147.
39
Ibid, p. 146.
25
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Pierre CHAMBAT (1992), quant à lui, met l’accent sur les pratiques de communication
et leurs représentations dans la société. Il insiste sur « les difficultés d’introduire de
nouveaux usages dans la société. » C’est que pour lui l’obstacle essentiel tient à « une série
de confusions, caractéristiques de l’idéologie techniciste : l’assimilation entre innovation
technique et innovation sociale, entre applications et usages, l’identification entre la
communication fonctionnelle, techniquement efficace et la communication sociale,
infiniment complexe. »43 Notre position consistera à chercher à identifier les représentations
que les utilisateurs ont des systèmes intelligents et des moteurs de recherche.
40
Michel de Certeau, L’invention du quotidien, tome 2, « Arts de faire », Gallimard (Coll. 10-18), 1994, p. 50-
54.
41
Idem, p. 52.
42
Ibid, p. 53.
43
Pierre CHAMBAT, Communication et lien social, Cité des Sciences et de l’industrie, Descartes, Paris, 1992,
p. 11.
26
Introduction Générale
Il observe que l’utilisation d’un appareil est souvent « impossible à décrire, car il est
complexe et en partie machinal. »46 C’est l’homme qui est au cœur de l’observation, et il
faut selon ce chercheur tenir compte des contextes psychologiques, sociologiques, culturels
et économiques afin de comprendre « comment s’établit et se propage l’usage»47.
Il est également nécessaire d’étudier les usages de façon diachronique, de tenir compte
du substrat de longue durée. Les usages correspondent-ils à un modèle unique de
fonctionnement chez différents usagers ou à une multiplicité d’utilisations ? De « grandes
divergences dans les formes d’usage et de grands regroupements » impliquent qu’il existe
un modèle identique de fonctionnement chez de multiples usagers48.
44
Jacques PERRIAULT, La logique de l’usage-essai sur les machines à communiquer, Flammarion, Paris, 1989,
p. 12.
45
Idem, p. 13.
46
Ibid, p. 16.
47
Ibid, p. 116.
48
Ibid, p. 203.
27
Les agents intelligents sur Internet : enjeux économiques et sociétaux
dans lesquels ils s’inscrivent qui constituent l’aune de la mesure. »49. Aujourd’hui les
innovations arrivent très rapidement et la durée qui permettrait de prendre du recul se
rétrécit très vite.
« L’usage n’est que rarement purement instrumental. Il se double souvent d’un rôle symbolique
qu’affecte à l’appareil celui qui s’en sert. Là non plus, on ne constate pas des milliers de rituels
différents, mais une analogie, sinon une identité de comportements chez un grand nombre
d’utilisateurs. »52 Cet aspect soulève la question de méthode d’interprétation. Comment accéder à
la dimension symbolique d’un usage ? »
Il poursuit son analyse en définissant l’usager comme « un agent de contexte » avec ses
propres mythes, règles et ressources, qui ignore les mythes associés à la conception de la
machine53. L’utilisateur se situe au nœud d’interactions complexes reliant son projet, son
désir profond et son modèle d’utilisation. Il existe une « sorte de négociation entre
l’homme, porteur de son projet, et l’appareil, porteur de sa destinée première. »54 De même
qu’il met en exergue une « négociation entre l’usager et la sphère technicienne dont l’enjeu
est la place et le rôle à assigner à la machine. »55 Cette négociation entre l’usager et
49
Ibid, p. 213.
50
Ibid, p. 66-69.
51
Les premières publicités de Wanadoo ou de Bouygues télécom ont d’ailleurs mis en relief cet aspect
d’instantanéité et d’ubiquité des rencontres faites sur Internet.
52
Ibid, p. 200.
53
Ibid, p. 214
54
Ibid, p. 220.
55
Ibid, p. 219.
28
Introduction Générale
La technologie connaît, dans des milieux différents, des utilisations diversifiées puisque
les usages entre l’homme et l’appareil sont négociés et varient en fonction de l’époque et du
lieu. « La relation d’usage s’opère d’ailleurs à des niveaux très différents qui vont de la
microsituation à la période historique. »57. Il est clair pour nous que l’attitude vis-à-vis des
agents intelligents et de l’intelligence artificielle pourra différer d’un pays à un autre.
Jacques PERRIAULT analyse ce qu’il appelle la logique des usages. Il constate que le
comportement des usages est souvent « en décalage par rapport au mode d’emploi d’un
appareil. »58 En d’autres termes, entre les fonctionnalités possibles d’un agent et celles que
l’internaute utilise régulièrement, il peut y avoir un décalage important. Celui-ci apparaît
clairement dans les réponses que nous avons analysées.
Une double décision chez l’usager est à l’origine de l’usage : acheter et se servir de
l’appareil61. Certains éléments interviennent dans la décision d’achat et le processus
56
Ibid, p. 230.
57
Ibid, p. 213.
58
Ibid, p. 202.
59
Ibid, p. 202.
60
Ibid, p. 202.
61
Ibid, p. 205.
29
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Jacques PERRIAULT note que la première forme de l’usage est celui conforme au
protocole de l’inventeur63. Ensuite viennent les modifications et altérations :
« Une première altération de l’usage consiste donc à moduler la gamme des capacités de
l’appareil. Une sorte d’équilibre se constitue progressivement par interactions successives entre
projet, instrument et fonction. Lorsqu’on se procure une machine, le projet d’emploi est souvent
très vaste. Puis au fil des échecs, de l’expérience, les ambitions se restreignent. »64
Mais l’usage conforme peut devenir aussi une fin en soi. « L’usager réel s’identifie à
l’usager rêvé. »65 L’usage peut devenir figé, stéréotypé. Il existe plusieurs catégories
d’altération d’un usage : la modulation ou sous-usage66 lorsqu’un projet autre que l’original
ou une autre fonction est introduite. Ainsi le Minitel proposait l’accès à des bases de
données tandis que les usagers ont introduit une forme de messagerie non prévue par ses
concepteurs. Les créations alternatives67 apparaissent lorsque le projet et l’appareil changent
bien que la fonction demeure. La substitution désigne la situation dans laquelle le projet et
la fonction de communication sont maintenus, mais il y a changement d’outil. Il existe une
incertitude sur l’ajustement après expérience. On change les usages en ajoutant des
fonctionnalités nouvelles68. Enfin, il peut y avoir un changement d’appareil et de fonction
pour un projet, tel le Citizen Band remplacé par le Minitel, chat69 (ou bavardage sur
Internet).
62
Ibid, p. 206.
63
Ibid, p. 206.
64
Ibid, p. 207.
65
Ibid, p. 207.
66
Ibid, p. 208.
67
Ibid, p. 209.
68
Ibid, p. 210.
69
Le terme chat vient du verbe anglais qui signifie bavarder. Il s’agit d’une conversation en-ligne avec un
groupe de participants souvent anonymes. Chacun envoie un message dactylographié.
30
Introduction Générale
Enfin, ce chercheur constate qu’il y a stabilisation de l’usage dans un milieu donné après
un laps de temps70
70
Ibid, p. 217.
71
Dominique WOLTON, Internet et après, une théorie critique des nouveaux médias, Flammarion, Paris, 1999,
p. 16.
31
Les agents intelligents sur Internet : enjeux économiques et sociétaux
« L’imaginaire du progrès existe donc. Il est une production symbolique de notre culture.
Le phénomène "technologies nouvelles" est une caractéristique de notre époque. Il mobilise
toutes les énergies autour d’une nouvelle foi dans le progrès, bien que la réalité apporte
chaque jour des raisons de relativiser cette croyance. »73
Josiane JOUËT, professeur à l’Institut Français de Presse (Université de Paris II) insiste
sur la double médiation des TIC, entre la logique sociale et la logique technique, « car
l’outil utilisé structure la pratique, mais la médiation est aussi sociale car les mobiles, les
formes d’usage et le sens accordé à la pratique se ressourcent dans le corps social74. » Elle
s’interroge sur « la part du propre qui revient à l’usager75. » En effet, « l’usager se
construit ses usages selon ses sources d’intérêts76. » Pour ce chercheur, l’appropriation
définie comme la manière dont l’usager construit ses usages, « se fonde sur des processus
qui témoignent d’une mise en jeu de l’identité personnelle et de l’identité sociale de
l’individu77. » L’appropriation serait donc une construction personnalisée des usages.
Josiane JOUËT évoque trois dimensions dans l’appropriation des TIC : l’une subjective et
collective, une autre cognitive et empirique et une troisième identitaire.
La première souligne les usages que l’utilisateur invente et sur les significations que la
technologie revêt pour lui ainsi que l’autonomie qu’il déploie. Cependant, cette dimension
est aussi sociale.
72
Alex MUCCHIELLI, Les sciences de l’information et de la communication, Paris, Hachette « Coll. les
Fondamentaux », 3e édition, 2001, p. 34.
73
Idem, p. 35.
74
Josiane JOUËT, « Pratiques de la communication et figures de la médiation. Des médias de masse aux
technologies de l’information et de la communication », Paul Beaud, Patrice Flichy et alii, Sociologie de la
communication, Paris, CENT, Réseaux, 1997, p. 293.
75
Josiane JOUËT, « Retour critique sur la sociologie des usages », Réseaux, N° 100, p. 502.
76
Idem, p. 502.
77
Ibid, p. 503.
32
Introduction Générale
maîtrise partielle des fonctionnalités » et que « cette exploitation minimale s’avère souvent
suffisante pour satisfaire l’attente que l’acteur investit dans son usage78 ».
« Cependant, la réalisation du moi se repère aussi dans certains usages professionnels des TIC, en
particulier auprès des professions intellectuelles supérieures, des cadres, pour lesquels
l’accomplissement personnel est fortement lié à la réussite professionnelle79. »
Les travaux de Josiane JOUËT nous ont permis de réfléchir à la relation entre
l’appropriation d’une technique et les enjeux professionnels des usagers. Si les utilisateurs
des logiciels agents (aspirateurs de site ou métamoteurs) font partie des professionnels de la
veille, il est fort possible que cette catégorie d’usagers s’intéresse ostensiblement à cette
technologie en le faisant savoir à sa clientèle potentielle. En effet, les sites professionnels
font état de l’usage des agents intelligents comme étant un élément incontournable de toute
stratégie de veille sur Internet80.
78
Ibid, p. 503.
79
Ibid, p. 503.
80
[Link] ([Link] agentland ([Link] par exemple.
81
Patrice FLICHY, L’Imaginaire d’Internet, Editions La Découverte, Paris, 2001.
82
Idem, p. 12-14.
83
Ibid, p. 12-14.
33
Les agents intelligents sur Internet : enjeux économiques et sociétaux
« Pour tenir l’objectif que je me suis fixé – étudier l’innovation dans ses deux composantes
technique et sociale -, il me faut abandonner le modèle déterministe, rigide ou lâche, et choisir
d’étudier les interactions permanentes entre technique et société84. »
Six ans après la publication d’Innovation Technique, Patrice FLICHY publie un ouvrage
sur le thème de l’imaginaire d’Internet, œuvre dans laquelle il met en pratique les outils
d’analyse exposés auparavant. Il développe un historique des communautés qui se sont
créées autour de l’informatique en réseau : communautés de scientifiques et communautés
de hackers sorties des mouvements de la contre-culture américaine des années soixante.
Patrice FLICHY met l’accent sur les projets utopistes des fondateurs. L’étude des écrits de
ces derniers permet de comprendre comment les représentations85 et les pratiques se sont
construites. Nous avons constaté que ce même phénomène se trouve autour des moteurs de
recherche et d’autres types d’agents aujourd’hui.
Philippe BRETON examine trois attitudes envers les TIC, et notamment Internet : celle
des partisans du tout-Internet, les « thuriféraires86 », qui font d’Internet l’objet d’un
véritable culte, d’une nouvelle frontière. Ces derniers comprennent des écrivains comme
Nicolas NEGROPONTE87, directeur du Medialab au MIT, l’entrepreneur Bill GATES88,
président de Microsoft parmi bien d’autres et le philosophe Pierre LÉVY en France. Par
contre, les technophobes voient dans les TIC un péché sinon un danger pour le lien social.
Parmi les chercheurs hostiles à Internet Jacques ELLUL et Paul VIRILIO qui mettent en
garde contre une « Tchernobyl informatique. »89. Partisans d’un usage raisonné, ils
considèrent les TIC comme des outils mais non pas comme les instruments d’une
révolution sociale.
84
Patrice FLICHY, L’innovation technique, Editions La Découverte, Paris, 1995, p. 70.
85
Patrice FLICHY, L’Imaginaire d’Internet, Editions La Découverte, Paris,2001, p. 94.
86
Qui porte l’encens et l’encensoir, du latin thur, l’encens et ferre, porter : enthousiaste, partisan d’une idée.
87
Nicholas NEGROPONTE, Being Digital, Vintage Books, New York, 1996.
88
Bill GATES, The way ahead, Penguin, London, 1995.
89
Philippe BRETON, Le culte d’Internet, Une menace pour le lien social ?, La Découverte, 2000, p. 17.
34
Introduction Générale
Danielle BAHU-LEYSER a étudié les conséquences de l’installation des TIC sur le plan
sociétal, gouvernemental et professionnel dans le cadre d’un cycle d’ouvrages90 sur les
finalités des nouvelles technologies et leurs conséquences sur l'organisation de l’État. Elle
s’interroge sur les effets d’Internet, notamment sur les médias traditionnels, sur nos futurs
modes de consommation et d’interaction, et sur les problèmes d’éthique liés à la mise en
réseau des informations de toute nature. En amont, elle soulève la question de la prise de
décision et du pouvoir.
Les points évoqués dans cette introduction concernent l’éventualité d’une société, voire
d’un monde, à deux vitesses, « entre ceux qui ont et ceux qui n’ont pas accès aux services
de la société de l’information.93 » L’enjeu, ici, est l’accentuation ou non des fractures
sociales. Selon les deux auteurs, il est nécessaire de réguler les services marchands « sous
peine de porter atteinte à la concurrence loyale entre fournisseurs et prestataires de ces
90
Danielle BAHU-LEYSER, Christophe DIGNE (sous la direction de) TIC, qui décide ?, la documentation
Française, Paris, 2002.
Danielle BAHU-LEYSER, Pascal FAURE , (sous la direction de), Nouvelles Technologies Nouvel État, La
Documentation Française, Paris, 2001.
Danielle BAHU-LEYSER, Pascal FAURE (sous la direction de) Médias, e-médias, La Documentation
Française, Paris, 2001.
Danielle BAHU-LEYSER, Pascal FAURE (sous la direction de) Éthique et société de l’information, La
Documentation Française, Paris, 1999.
91
Idem, p. 14, phrase citée par Danielle BAHU-LEYSER, Pascal FAURE, d’Edgar Morin, « Le XXI siècle a
commencé à Seattle » Le Monde 7 décembre 1999.
92
Ibid, p. 14.
93
Ibid, p. 16.
35
Les agents intelligents sur Internet : enjeux économiques et sociétaux
biens et services ou de nuire aux utilisateurs de ces biens et services94. » Il est également
indispensable de protéger la libre expression de chacun sans « porter préjudice à
l’ensemble des utilisateurs ou à des utilisateurs sectoriels95. »
94
Ibid, p. 17.
95
Ibid, p. 17.
96
Ibid, p. 17.
97
Michel VOLLE, e-conomie, Economica, Paris, 2000, p. VIIII-IX.
36
Introduction Générale
coût fixe avec un coût marginal quasi nul. Pour Michel VOLLE, la fonction de production à
coût fixe entraîne pour chaque bien un monopole naturel et, par conséquent, la survie d’une
seule entreprise. Il est donc nécessaire de différencier l’offre en fonction de la demande98.
Michel VOLLE définit la concurrence monopoliste de la manière suivante :
« Les entreprises construisent pour chaque variété du bien un petit monopole particulier aux
frontières duquel elles sont en concurrence avec les fournisseurs de variétés voisines. Ainsi la
concurrence monopoliste est endogène au modèle : à l’équilibre, le nombre de variétés produites
est déterminé, ainsi que la quantité vendue et le prix de chaque variété. »99
98
Idem, p. 2.
99
Ibid, p. 3.
100
Jean-Christophe FÉRAUD, « Google contre Microsoft, la guerre des moteurs», La Tribune du 17 février 2004, p.28-29
37
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Nous entrons dans une économie de risques entraînée par la fonction de production à
coût fixe101. En effet, la totalité du coût de production est dépensée avant même qu’il y ait
vente du bien sur le marché, ce qui nécessite un partenariat et qui implique une concurrence
soit par les prix soit par l’innovation. Ce facteur va s’avérer déterminant en ce qui concerne
la survie des entreprises d’Internet, notamment les portails intégrant un moteur de
recherche, un annuaire et d’autres services à valeur ajoutée.
Comprendre les enjeux d’Internet équivaut à explorer la manière dont la valeur se crée
sur ce média à facettes multiples.
101
Ibid, p. 4.
102
Ibid, p. 5.
38
Introduction Générale
L’usager d’Internet a l’impression que l’accès à l’information est gratuit106. Cette notion
de gratuité provient de l’idéologie fondatrice d’Internet. Les universitaires américains
utilisaient les réseaux pour communiquer et partager le savoir. Pour ces pionniers
d’Internet, il fallait s’échanger librement les fruits de leurs recherches en matière de
programmation. Se développait alors le logiciel libre (freeware107). Dans un texte posté sur
un forum d’Usenet, Free Unix, le 27 septembre 1983, Richard STALLMAN108 annonce son
intention de créer un système d’exploitation et des applications, tous fondés sur Unix. Le
Projet GNU (GNU is not Unix) est né. Le même auteur propose un protocole de licence
appelé Copyleft, qui donne un certain nombre de droits à l’utilisateur. Il s’agissait de
pouvoir utiliser le logiciel, le copier, le diffuser, le modifier sans pour autant protéger les
modifications proposées. Il est même possible d’en vendre des copies sur CD. Le Free
Software Foundation voit le jour en 1984 pour financer le développement des applications.
103
Eric BROUSSEAU et Nicolas CURIEN, « Economie d’Internet », Numéro hors série de La revue
économique, vol. 52, octobre 2001. Version en langue anglaise : « Internet economics, digital economics »,
[Link] consulté le 30 janvier, 2004.
104
Idem, p. 2
105
Patrick ARTUS, La nouvelle économie, La Découverte, coll. Repères, 2e édition, Paris, 2002.
106
En réalité, l’État fédéral américain a largement contribué à la gratuité des services et du réseau en général par
le biais de subventions aux centres de recherche.
107
Free a le sens de libre plutôt que celui de gratuit. Logiciel libre plutôt que « gratuitiel ».
108
Richard STALLMAN, « Original Announcement of the GNU project », le 27 sept. 1983. Source :
[Link] et [Link] consulté le 9
janvier 2004.
39
Les agents intelligents sur Internet : enjeux économiques et sociétaux
C’est toutefois Linus TORVALDS qui apporte le noyau du système d’exploitation, Linux,
en 1990.
Dans ce contexte de gratuité attendue, comment faut-il s’y prendre pour gagner de
l’argent et financer le développement économique d’une entreprise ? La firme Netscape,
par exemple, donnait au public, sans obligation de paiement, son logiciel de navigation
mais développait par la même occasion ses services et ses serveurs auprès des entreprises.
Quant à la firme Adobe, elle a distribué gratuitement son logiciel de lecture du format PDF
(Acrobat PDF Reader) tout en faisant payer celui qui permet de créer des documents sous
ce même format (Acrobat PDF Writer). Elle combine ainsi la gratuité et la rémunération du
produit.
40
Introduction Générale
109
La firme [Link] vend des logiciels de sécurité informatique (zonealarm) aux entreprises tout en offrant
une version gratuite au grand public. Source : [Link] consulté le 9 janvier 2004.
110
John P. Barlow, « The Economy of Ideas. A framework for rethinking patents and copyright in the Digital
Age. », Wired, March 1993, p. 86. Référence sur Internet :
[Link] consulté le 12 8 2003.
111
Bernard MAÎTRE, Grégoire ALADJIDI, Les Business Models de la Nouvelle Économie, Dunod, Paris, 2000.
112
Noémie BEHR, « Modèles économiques de Portails », étude réalisé par le CERNA pour la Direction
Générale de l’Industrie, des Technologies de l’Information et des Postes en 2001,
[Link]/Documents/[Link], consultée le 8 décembre 2003.
41
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Nous avons consulté des ouvrages et des articles sur l’intelligence artificielle (IA) et la
notion d’agent intelligent. Nous avons commencé notre lecture par l’ouvrage de l’un des
pionniers de la discipline, Patrick H. WINSTON113 pour comprendre la modélisation de
l’IA. Pour approfondir les méthodes de programmation, nous avons consulté le livre de
Stuart J. RUSSEL et Peter NORVIG114, qui met en perspective l’approche agent. Le livre de
Jeffrey M ; BRADSHAW115 , An introduction to software agents, nous fournit un panorama
de la recherche en technologie agent (agenthood). La théorisation des systèmes multi-
agents est présentée par Jacques FERBER. L’ouvrage de Alper CAGLAYAN et Colin
HARRISON116, Agent Sourcebook, A Complete Guide to Desktop, Internet, and Intranet
agents, nous a aidé à définir une typologie d’agents adaptés à Internet. Pour connaître les
enjeux des agents de l’e-commerce, nous avons utilisé le livre de Corina PARASCHIV117.
Nous avons choisi de diviser notre thèse en trois parties. L’interaction entre la technique,
le social, l’économique et l’imaginaire constitue l’aboutissement de notre réflexion à partir
de notre hypothèse directrice.
113
Patrick H. WINSTON, Artificial Intelligence, Addison-Wesley, Reading Mass., 1984.
114
Stuart J. RUSSEL, Peter NORVIG, Artificial Intelligence, A Modern Approach, Prentice-Hall International,
Inc, New Jersey, 1995.
115
Jeffrey M. BRADSHAW. Software Agents, AAAI Press/ The MIT Press, Boston, 1997.
116
Alper CAGLAYAN, Colin HARRISON, AGENT SOURCEBOOK, A Complete Guide to Desktop, Internet,
and Intranet agents, Wiley Computer Publishing, New York, 1997.
117
Corina PARASCHIV, Les agents intelligents pour un nouveau commerce électronique, Hermès, coll.
« Technique et scientifique des Télécommunications », Paris, 2004.
117
Gilles DERUDET, « La révolution des agents intelligents », Internet Professionnel, N° 9, mai 1997, p. 74-79.
42
Introduction Générale
métamoteur, le plus cité par les personnes interrogées. Nous proposerons une explication du
succès de Google, relevant de la technique, du social et peut-être de l’imaginaire.
Le quatrième chapitre aborde le problème des limites des moteurs à satisfaire pleinement
les besoins des utilisateurs. Internet présente trois points importants pour ce qui est de la
collecte d’information d’un point de vue stratégique : le site Web, le moteur de recherche
par lequel passe l’internaute et le disque dur de l’usager. Un modèle technique devrait
émerger pour connecter le second au troisième. La surcharge d’information doit être gérée
aussi bien localement (sur les PC des internautes) que sur les moteurs. Un enjeu
économique majeur consiste à faire adopter par les usagers une interface gérant
l’information en local et l’interaction entre le moteur, le site Web ciblé et l’utilisateur. Nous
répondrons ainsi à la question motivant la seconde partie de notre hypothèse.
La seconde partie met l’accent sur l’observation des usages et des usagers. Le premier
chapitre dresse le bilan de notre analyse des pratiques de recherche informationnelle dans le
milieu universitaire et celui de la veille.
Le second chapitre, qui découle du précédent, est consacré aux représentations des
agents et moteurs et s’appuie sur les méthodologies développées par la sociologie des
usages. Nous confrontons le discours techniciste des scientifiques et des éditeurs de
logiciels avec les propos des usagers. Sur le plan de l’imaginaire, le terme moteur de
recherche reste peut-être plus neutre que celui d’agent intelligent et n’inspire ni les craintes
ni les attentes inspirées par cette dernière expression. L’intelligence artificielle et les
programmes dérivés entrent dans un cadre mythique et symbolique.
La troisième partie analyse les enjeux économiques et sociétaux liés à l’intégration des
agents intelligents dans les moteurs de recherche et les conséquences de ce processus pour
l’usager.
43
Les agents intelligents sur Internet : enjeux économiques et sociétaux
ce dispositif. Ce chapitre, par la nature des thèmes abordés, ne sépare pas les enjeux
économiques d’avec le social car les uns s’imbriquent dans les autres. La surveillance des
activités de chacun est-elle le prix à payer pour un immense service gratuit, l’accès à une
énorme banque de données planétaire ? On peut se demander, d’ailleurs, si les usagers ont
bien pris conscience de cet échange d’informations.
Le dernier chapitre étudie la mission des moteurs concernant la création d’une mémoire
collective. S’agit-il d’une utopie ou d’un projet réalisable. La construction progressive de la
nouvelle Bibliothèque d’Alexandrie, ne constitue-t-elle pas le plus important enjeu de ce
début de millénaire ?
44
PREMIERE PARTIE
1.1. INTRODUCTION
118
L’adjectif « utopique » est pris par rapport à une technique idéale capable d’apporter des progrès et des
bienfaits pour l’homme et la société. Le Petit Robert définit utopie comme « un idéal, vue politique ou
sociale qui ne teint pas compte de la réalité. »
45
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Le premier chapitre introduit ces nouvelles techniques en les insérant dans leur contexte
historique et sociétal. C’est pourquoi nous présenterons d’abord l’histoire de l’intelligence
artificielle en mettant en relief la dimension imaginaire et utopique de cette jeune
discipline. Ensuite, nous proposerons un corpus de définitions du terme « agent intelligent »
avant de dresser une typologie des principaux logiciels utilisés sur Internet.
Toutefois, il nous faut délimiter le champ de recherche. Ainsi mettrons-nous l’accent sur
les agents intelligents dont la fonction principale est de collecter des informations sur
Internet et de les traiter : celles publiées sur les pages Web et d’autres concernant la
navigation des internautes.
46
Première partie ─ De nouvelles machines à communiquer
En 1904 Charles SPEARMAN, par le biais de l’analyse factorielle met l’accent sur la
notion d’intelligence générale. L’échelle de développement intellectuel d’Alfred BINET et
de Théodore SIMON remonte à 1905. La notion de QI (quotient de l’âge mental sur l’âge
naturel) a été introduite par STERN en 1911. Les tests élaborés depuis cette date avaient
pour objectif de faciliter l’orientation scolaire. Il s’ensuit que les définitions de
l’intelligence sont fortement influencées par les tests d’évaluation.
47
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Les débats sur la définition de l’intelligence humaine ont soulevé deux problèmes
essentiels. Cette faculté de l’homme est-elle essentiellement innée ou acquise, et est-elle
caractérisée par l’unicité ou la multiplicité ? En effet, s’agit-il d’une intelligence générale
ou d’une pluralité d’intelligences spécialisées et spécifiques ?
« L’avantage du modèle hiérarchique à trois strates de CARROLL est de réaliser une véritable
synthèse entre les conceptions unitaires et multifactorielles de l’intelligence. D’une part, il
distingue des formes d’intelligence variées relativement indépendantes : il est donc possible d’être
très performant dans l’une d’entre elles sans l’être nécessairement tout à fait dans les autres.
D’autre part, il affirme l’existence d’un facteur général, puisqu’il y a une tendance à ce que les
sujets les plus performants dans l’une de ces formes d’intelligence le soient aussi dans les
autres. »119
« Il reste cependant possible de définir l’intelligence par la direction dans laquelle est orienté son
développement…. on peut dire qu’une conduite est d’autant plus intelligente que les trajectoires
entre le sujet et les objets de son action cessent d’être simples et nécessitent une composition
progressive120 »
Dans les années 60, les sciences cognitives, comprenant les neurosciences, la
psychologie cognitive, la linguistique, l’informatique et l’intelligence artificielle,
119
Jacques LAUTREY, « L’Intelligence de la mesure aux modèles », Sciences Humaines, N°116, mai 2001, p.
23.
120
Jean PIAGET, La psychologie de l’intelligence, Armand Colin, Paris, 1967, p. 17.
48
Première partie ─ De nouvelles machines à communiquer
proposaient des modèles destinés à expliquer les processus sous-jacents aux conduites
intelligentes. Leur approche, fondée sur les théories du traitement de l’information, met en
lumière l’importance de la mémoire121, de son organisation, et surtout de la résolution des
problèmes, point de départ de l’intelligence artificielle. La psychologie cognitive
différentielle se développe à la fin des années 60. L’objectif en était « d’identifier les
processus sous-jacents aux grands facteurs de l’intelligence » comme « l’intelligence
fluide, conçue comme une capacité d’adaptation à de nouvelles situations, mettant en
œuvre les aptitudes au raisonnement (induction, déduction, etc.) et faisant très peu appel
aux connaissances acquises. »122
Les études conduites par les chercheurs tels que CARPENTER, JUST et SHELL en
1990, mettent l’accent sur l’importance de la mémoire de travail, qui permet de stocker les
résultats intermédiaires d’un problème (l’intelligence fluide). L’autre mémoire, produit de
la recherche en sciences cognitives, la mémoire déclarative, stocke ses connaissances
explicites, selon une organisation très structurée, sous forme de réseaux. Celle-ci pourrait
expliquer l’intelligence cristallisée (ou verbale).
121
Ce problème de mémoire, lié à l’intelligence, et de son organisation se situe au cœur de l’activité des moteurs
de recherche. C’est une véritable mémoire de l’humanité qui est en train de se mettre en place grâce à leur
développement.
122
Idem, p. 25.
49
Les agents intelligents sur Internet : enjeux économiques et sociétaux
environnement donné. On a donc affaire à deux approches d’un même problème, qui vont donner
des modélisations de nature différente et pourtant complémentaires : le développement de modèles
formels et celui de modèles dérivés de l’étude expérimentale. Cette différence s’articule autour de
la nécessité ou non de s’attacher à une modélisation précise du fonctionnement cognitif humain,
donc contrainte par les faits expérimentaux - ce qui est le fondement de la psychologie cognitive -
ou bien à une modélisation formelle des mécanismes de la connaissance, donc théorique et sans
autres contraintes que celles du modèle lui-même et de la machine utilisée comme support - ce qui
est le fondement de l’intelligence artificielle. Des modèles généraux des connaissances peuvent être
communs aux deux disciplines, puis diffèrent ensuite dans leur application. »123
123
Hervé CHAUDET, Liliane PELLEGRIN, Intelligence artificielle et psychologie cognitive, Dunod, 1998, p
16.
124
Cf. annexe 1, pour une chronologie des automates.
50
Première partie ─ De nouvelles machines à communiquer
« Les servantes s’empressèrent de soutenir leur maître, servantes en or, mais ressemblant à des
vierges vivantes ; elles avaient en leur âme l’intelligence en partage, possédant aussi la voix et la
126
vigueur, et tenant des dieux immortels eux-mêmes leur science du travail. »
Ces légendes révèlent chez l’homme sa volonté d’être un démiurge à l’égal des dieux,
encourant, ainsi, le châtiment qui frappe toute manifestation d’hubris. Il commence par
fabriquer un modèle de lui-même, physique, ensuite doué de pensée.
Dans la poésie latine, apparaît le thème de la femme artificielle. OVIDE127 met en vers
la légende de Pygmalion, roi de Chypre, qui tombe amoureux d’une statue, à qui Aphrodite
125
Jasia REICHARDT, Les Robots arrivent, Chêne, s.l., 1978.
126
HOMÈRE, Iliade, trad. Mario Menier, coll. « Le Livre de Poche », 1972, p.425.
127
OVIDE, Métamorphoses, éd. J.-P. Néraudau, Gallimard, coll. Folio, Paris, 1992, p. 329-330.
51
Les agents intelligents sur Internet : enjeux économiques et sociétaux
va donner la vie, afin d'exaucer les prières du monarque. Le poète insiste sur l’illusion
produite par le réalisme de la statue et sur l’origine divine du don de la vie.
En dehors des automates mécaniques, d’autres légendes se sont tissées autour des êtres
artificiels. Tout d’abord, examinons le Golem. Selon la tradition juive, Elijah de Chelm
(1550) puis Rabbi Löw (1580) auraient créé des golems pour protéger la communauté
juive128. Gustav MEYRINK129 s’en est inspiré pour écrire un roman. Patrice FLICHY,
d’ailleurs, évoque le mythe du Golem130 et le projet de Norbert Wiener de créer un cerveau
artificiel. Ne participent-ils pas du même rêve ?
Les alchimistes aussi cherchaient à créer des êtres artificiels vivants, les homonculi131.
Selon la légende, PARACELSE (1493-1541) en aurait produit un. Il expliquait lors d’une
conférence à l’université de Bâle comment il fallait « l’entretenir et l’élever avec soin de
sorte qu’il puisse se développer et prouver son intelligence. »132 Sans doute PARACELSE
avait-il anticipé avec quelques siècles d’avance les tamagotchi ! Ce qui est significatif, c’est
ce désir de créer des êtres capables de développer leurs capacités cognitives. On peut se
demander si certains de ces mythes sont largement répandus, s’ils sont bien instaurés dans
l’imaginaire collectif ou s’ils ne sont connus que des spécialistes de l’histoire des
techniques ou de la littérature.
128
Le golem était un être fait de glaise. En écrivant le mot émeth (vérité) sur son front, on donnait vie au golem.
En écrivant le mot meth (mort) on le rendait à la poussière.
129
Gustav MEYRINK, Le Golem, Stock, Paris.
130
Patrice FLICHY, L’innovation technique, Editions La Découverte, Paris, 1995, p. 181.
131
Petit être vivant en chair et en os. Ce thème préfigure le mythe de Frankenstein.
132
Jasia REICHARDT, op. cit., p. 30.
133
Sa fille naturelle, Francine, est morte en 1640.
52
Première partie ─ De nouvelles machines à communiquer
«Mais s’il est un groupe qui a joué un rôle important pour le développement du concept de
l’intelligence artificielle, c’est bien celui des écrivains de science-fiction. Ils y ont toujours cru,
parfois même un peu trop, à tel point que leurs lecteurs trouvent aujourd’hui toutes nos réalisations
naturelles. »137
La peur du robot, par exemple, est introduite par la pièce HCH et développée par Arthur
CLARKE dans 2001 Odyssée de l'espace. Elle évoque dans l’imaginaire collectif les
dangers posés par la technologie. Ce thème s’intègre dans le cadre du mythe de l’apprenti
sorcier : l’homme crée les moyens de sa propre destruction. En outre, Arthur CLARKE met
134
Ivre en langue tchèque.
135
Patrice FLICHY, L’Imaginaire d’Internet, Editions La Découverte, Paris, 2001.
136
C’est le sens général de son ouvrage sur les dangers de l’IA. Keneth WARWICK, March Of The Machines,
Century, London, 1997.
137
Jacques PITTRAT, « La naissance de l’intelligence artificielle », La Recherche, No. 170, Octobre, 1985, p.
1132.
53
Les agents intelligents sur Internet : enjeux économiques et sociétaux
en lumière deux enjeux de l’intelligence artificielle, le pouvoir caractérisé dans l’absolu par
la dichotomie liberté/esclavage, et la problématique de la mort posée en termes
d’immortalité et d’insécurité.
Pour conclure, nous avons pu constater que le rôle de l'imaginaire consiste à suggérer
tout ce qui reste possible grâce aux progrès scientifiques et technologiques (mythe de
Prométhée), mais aussi à nous mettre en garde contre des éventuels dérapages (mythe de
l’apprenti sorcier.) Jean-Gabriel GANASCIA pose ainsi le problème :
Qu’est-ce donc qui scelle l’originalité de l’intelligence artificielle au point de rendre vigueur et
actualité à ces vieux rêves ? »141
Il est difficile d’affirmer que le facteur imaginaire joue un rôle très important dans le
processus d’appropriation d’un logiciel. L’usager, à la recherche d’une information, ne
pense pas forcément aux implications que représente l’intelligence dans un système
informatique et ne ferait pas obligatoirement de rapprochement entre le programme qu’il a
téléchargé et les enjeux de la machine intelligente. Néanmoins, nous avons intégré ce
facteur dans notre grille d’analyse en lui accordant la place qu’il mérite.
138
Isaac ASIMOV, « Runaround », The Complete Robot, Panther, London, 1984, p. 257- 278.
« We have : One, a robot may not injure a human being, or through inaction, allow a human being to come to
harm.’ ‘Right !’ ‘Two,’ continued Powell, ‘a robot must obey the orders given by human beings except where
such orders would conflict with the First Law.’ ‘Right !’ ‘And three, a robot must protect its own existence so
long as such protection does not conflict with the First or Second Laws » p. 269-270.
139
Traduit par Jacques PITRAT, op. cit. p. 1132.
140
Ibid, p. 1132.
141
Jean-Gabriel GANASCIA, L’âme machine, les enjeux de l’intelligence artificielle, Seuil, Paris, 1990, p. 8.
54
Première partie ─ De nouvelles machines à communiquer
« Ce que Socrate demande ici à Euthyphron, c’est ce que nos modernes théoriciens de
l’informatique appelleraient une procédure opératoire, un ensemble de règles qui nous disent avec
précision, étape par étape, comment agir. »144
Pour PLATON, l’homme, grâce aux mathématiques, peut comprendre l’univers. Entre le
monde des Idées, des réalités intelligibles, et le monde sensible, celui des apparences, les
entités mathématiques constituent des intermédiaires. On attribue à ARISTOTE (384-322
avant J.-C..) la mécanisation de la pensée par le biais des syllogismes. En effet, le
syllogisme permet de générer mécaniquement une conclusion vraie si les prémisses sont
vraies. Sa méthode est exposée dans un ouvrage intitulé Organon145.
Plus proche de notre ère, René DESCARTES146 (1596-1650) étudie l'esprit en tant que
système physique. Cependant, le philosophe français établit une distinction entre esprit et
matière. Devant le problème du libre arbitre, DESCARTES opte pour un compromis. Une
partie de l'esprit serait en dehors de la matière, libérée des lois de la physique. Le point de
convergence de l'esprit et de l'âme, la partie immatérielle, serait la glande pinéale. Ainsi
142
Stuart RUSSEL, Peter J., NORVIG, Artificial Intelligence, A Modern Approach, Prentice-Hall International,
Inc, New Jersey, 1995. p. 8.
143
PLATON, « Euthypron », Premiers dialogues, Flammarion, Paris, 1967, pp. 185-211.
144
Hubert L. DREYFUS, Intelligence artificielle, mythes et limites, Flammarion, Paris, 1984, p. 3.
145
ARISTOTE, Organon III, J. Vrin, Paris, 2001.
146
René DESCARTES, Les méditations métaphysiques, Bordas, Paris, 1987, pp. 17-28.
55
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Dans cette même approche, Wilhelm LEIBNIZ (1646-1716) a cherché à construire une
machine capable de raisonner. Selon ce philosophe et mathématicien, le monde est issu des
calculs de Dieu. Cette idée apparaît déjà d’une manière embryonnaire chez les Grecs, plus
particulièrement chez les Pythagoriciens pour qui l’univers est un ouvrage mathématique.
DESCARTES lui-même avait suggéré que « la pensée était déterminée par les règles du
raisonnement et avait postulé que l'esprit posséderait un système de codage ou de notation
simple et universel, comme les mathématiques. »147 L’idée que l’on puisse modéliser la
pensée comme les mécanismes de la nature, émerge progressivement. Cependant les
progrès de la médecine vont ouvrir la voie à d’autres manières numériques de reproduire la
pensée artificiellement.
Ceux-ci ont également joué un rôle dans la réflexion sur l’esprit. Les progrès concernant
la compréhension anatomique du cerveau ont orienté une approche de l’intelligence
artificielle, le numérique ou neuronal. En 1795 Pierre CABANIS (1757-1808), professeur
d'hygiène et de médecine clinique, déclare que le cerveau est l'organe de la pensée. En
1861, Paul BROCA travaille sur le cas d’un patient souffrant d’aphasie, Leborgne. Pour ce
médecin, les grandes facultés de l’esprit (parole, vision) correspondent aux grandes régions
du cerveau.
147
Marie-France BLANQUET, Intelligence artificielle et systèmes d'information, E.S.F., Paris, 1994, p. 27.
56
Première partie ─ De nouvelles machines à communiquer
Les progrès dans le domaine des mathématiques ont également contribué à la naissance
de l’Intelligence artificielle en tant que discipline. La logique d'ARISTOTE était
essentiellement d'ordre philosophique. C'est George BOOLE148 (1815-1864) qui a formulé
les règles et les notations de la logique mathématique dans son livre : The Mathematical
Analysis of Logic : Being an Essay towards a Calculus of Deductive Reasoning (1847).
Gottlob FREGE (1848-1925) est responsable à quelques détails près du calcul de premier
ordre (first-order logic) utilisé en Intelligence artificielle.
148
George BOOLE, The Mathematical Analysis of Logic : Being an Essay towards a Calculus of Deductive
Reasoning, Macmillan, London, 1847.
149
Le mot cybernétique provient du mot grec kybernetes qui signifie le barreur d'un navire. Ampère utilise le
mot dans son livre La Cybernétique (1848) dans un sens politique.
150
Norbert Wiener, Cybernetics: on Control and Communication in the animal and the Machine, Wiley, 1948.
151
Philippe BRETON, Une Histoire de L’Informatique, Seuil, 1990, p. 162.
57
Les agents intelligents sur Internet : enjeux économiques et sociétaux
rassemblement de ces disciplines permit de créer la cybernétique dont le but était d'expliquer, à
l'aide des mathématiques, les phénomènes qui mettent en jeu les mécanismes du traitement de
l'information. L'approche de la cybernétique s'est donc traduite par une vue très mathématique du
comportement humain ou animal; la plupart des pionniers de l'intelligence artificielle viendront de
cette discipline152. »
«Postulat 1 : chaque aspect de l’apprentissage ou de l’intelligence peut être décrit avec une telle
précision qu’une machine pourrait le simuler
152
Jacques PITRAT, op. cit. p. 1137.
153
La conférence est connue sous le nom de Dartmouth Summer Research project on Artificial Intelligence. Une
présentation du texte d’appel à contribution est donné à cette adresse: [Link]
[Link]/jmc/history/dartmouth/[Link], document consulté le 13 12 2004.
154
Daniel CREVIER, A la recherche de l’intelligence artificielle, Flammarion, coll. « Champs », 1997, p. 67-69.
58
Première partie ─ De nouvelles machines à communiquer
Postulat 2 : l’esprit humain n’a pas accès direct au monde extérieur, mais ne peut qu’agir grâce à
une représentation interne du monde, correspondant à une série de structures symboliques
(hypothèse des systèmes de symboles physiques)
Postulat 3 : la pensée consisterait à étendre les structures de symboles, à les briser, à les détruire, à
les réorganiser et à en créer de nouvelles.
Postulat 4 : l’intelligence est la capacité de manipuler des symboles. Divers supports matériels
peuvent donner naissance à de l’intelligence155. »
155
Idem, p. 68.
156
Hervé CHAUDET, Liliane PELLEGRIN, [Link]. p. 7.
157
Jean-François DORTIER, « espoirs et réalité de l’intelligence artificielle, Le cerveau et la pensée, Sciences
Humaines, Paris, 1999, p. 73.
59
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Nous ne savons pas exactement comment l’homme réagit face à la création de systèmes
intelligents. La littérature et le cinéma de science-fiction cherchent à stimuler la réflexion
sur les menaces d’une technologie dont la finalité consiste à construire des machines et des
programmes intelligents. Des films comme Terminator, Intelligence Artificielle, La guerre
des étoiles, mettent en garde contre la montée en puissance des robots. D’autres comme
Minority Report soulignent les dangers d’une société sous haute surveillance. Il est
intéressant de savoir si cette production cinématographique détermine la manière dont les
usagers de l’ordinateur et d’Internet perçoivent l’intelligence des machines161.
158
Idem, p. 73.
159
Des usages se développent autour des fonctions de traduction des moteurs en 2004. On peut penser qu’il y a
eu quelques progrès.
160
L’échec des services de renseignement américains à empêcher les attentats du 11 septembre 2001 est notoire.
161
Cf. annexe 1.
60
Première partie ─ De nouvelles machines à communiquer
« I.A., partie de l’informatique qui a pour but la simulation de facultés cognitives afin de suppléer
l’être humain pour assurer des fonctions dont on convient, dans un contexte donné, qu’elles
163
requièrent de l’intelligence. »
Ainsi, le système ne produit pas une action intelligente mais se contente de la simuler. Si
la machine peut exécuter une opération qui requière de l’intelligence chez l’humain, on
peut la considérer comme intelligente.
«Discipline dont le but est l’étude et la conception de systèmes dont le comportement se rapproche
de ce que nous qualifions d’intelligence chez l’homme. De par l’ambition de ce domaine et le
nombre de domaines en lesquels elle s’est, au fil des années, scindée, il s’agit d’une composante
majeure de l’informatique. De plus, il s’agit sans aucun doute de celle qui dispose des plus vastes
perspectives puisqu’elle se pose en concurrente de l’esprit humain dont nous sommes bien loin
164
d’avoir percé les insondables secrets. »
162
Cf. annexe 2.
163
Le Nouveau Petit Robert, 2000.
164
D’après Bernard LAMIZET, et Ahmed SILEM, Dictionnaire encyclopédique des sciences de l’information et
de la communication, Ellipses, Paris, 1997, p.305.
165
Raoul SMITH, Dictionary of ARTIFICIAL INTELLIGENCE, Collins, London, 1990, p. 22.
« Artificial intelligence or AI : the field of computer science that seeks to understand and implement computer
based technology that can stimulate characteristics of human intelligence. A common goal of Artificial
Intelligence work involves developing computer programs capable of learning from experience in order to solve
problems. Other noteworthy pursuits of the field include programs that understand natural language and
61
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Celle-ci permet de faire des inférences, c’est-à-dire de raisonner à partir des connaissances
formalisées produites. De surcroît, il souligne l’épineux problème de la compréhension du
langage naturel ou humain, l’un des enjeux de l’intelligence artificielle du futur. On peut
facilement constater que le terme couvre un vaste champ de recherche.
« L’intelligence artificielle s’intéresse aux processus cognitifs mis en œuvre par l’être humain lors
168
de l’accomplissement de tâches intelligentes. »
Cela ne signifie pas pour autant que l’ordinateur produit réellement une conduite
intelligente. C’est l’observation des comportements humains exigeant un degré
d’intelligence qui permet la modélisation et l’exécution sur la machine.
programs that interpret visual scenes. Methods of symbolically representing knowledge in a way that the
computer can use the symbols to make inferences is a central task of any Artificial Intelligence project…. That
benefits of such a science of intelligence includes guidelines for designing intelligent machines and models of
human or other animal’s intelligent behaviour. A general theory of intelligence remains a goal of AI and the field
therefore often interests other researchers such as cognitive psychologists who are attempting to understand
natural intelligence. »
166
Jean-François DORTIER, op. cit. p. 362.
167
Alain BONNET, L’Intelligence artificielle, Promesses et Réalités, InterEditions, Paris, 1984, p. 17.
168
Idem, p. 17.
62
Première partie ─ De nouvelles machines à communiquer
Jean-Paul HATON et Marie-Christine HATON présentent les points les plus souvent
évoqués dans un ouvrage destiné au grand public. Ces auteurs soulignent deux axes, la
simulation et la reproduction des capacités de l’intelligence humaine par la machine170.
L’un concerne l’étude des mécanismes de l’intelligence, l’ordinateur étant utilisé comme moyen de
simulation pour tester un modèle ou une théorie ; ce point de vue relève d’une démarche cognitive ;
L’autre, plus pragmatique, concerne les efforts faits pour doter un ordinateur de capacités
habituellement attribuées à l’intelligence humaine : acquisition de connaissances, perception
(vision, audition), raisonnement, prise de décision, etc.
C’est ce second point de vue qui est le plus couramment rencontré. Il consiste à émuler par un
programme d’ordinateur des comportements intelligents sans pour autant reproduire le
fonctionnement correspondant de l’être humain.
Les deux approches précédentes sont en fait largement complémentaires dans la mesure où une
meilleure connaissance des mécanismes humains permet d’améliorer les performances des
systèmes informatiques. »
« Le terme “intelligence artificielle” a été utilisé pour désigner un projet de recherche consistant à
concevoir une machine intelligente, c’est-à-dire capable de réussir aussi bien qu’un être humain
171
dans des tâches jugées complexes. »
La méthode de l’IA consiste à élucider certaines activités du cerveau pour les reproduire
sur ordinateur. Comprendre, communiquer, résoudre un problème, élaborer une stratégie et
prendre une décision font partie de cet ensemble. L'intelligence artificielle s’inspire de
l’étude de ces conduites chez l'homme et propose une modélisation informatique. Elle va de
pair avec le développement des sciences cognitives.
169
Hervé. CHAUDET, Liliane PELLEGRIN, op. cit. p. 9.
170
Jean-Paul. HATON et Marie-Christine HATON, L'Intelligence artificielle, P.U.F. Paris, pp. 3-4.
171
Jacques FERBER, Les systèmes multi-agents,vers une intelligence collective, InterEditions, Paris, 1995, p. 5.
63
Les agents intelligents sur Internet : enjeux économiques et sociétaux
172
Alain Bonnet, op. cit. p. 17.
173
D’après Alain Bonnet, op. cit., p. 18.
64
Première partie ─ De nouvelles machines à communiquer
possibilité d’en essayer d’autres si celui qui paraissait prometteur n’a pas conduit
rapidement à une solution. »174
174
Alain Bonnet, op. cit., p. 20.
175
Alain Bonnet, op. cit., p. 24.
65
Les agents intelligents sur Internet : enjeux économiques et sociétaux
L’un des enjeux des agents intelligents et plus généralement des outils de recherche
consiste à pouvoir répondre à une requête en langage naturel. Cependant, beaucoup
d’obstacles restent à surmonter. Les systèmes informatiques de compréhension de langage
naturel sont confrontés au frame problem ou problème du cadre de référence177. Un second
obstacle concerne notre connaissance du monde quotidien, c’est-à-dire le bon sens
(common sense knowledge). En effet, notre expérience du monde reste complexe et n’est
pas facile à représenter.
La compréhension du langage naturel par la machine semble être la condition sine qua
non de la traduction automatique. Pour réussir cet enjeu important sur le plan économique
et stratégique, le programme devrait pouvoir surmonter les facteurs sémantiques,
pragmatiques et contextuels qui posent tant de problèmes aujourd’hui encore.
Les systèmes experts ont aussi joué un rôle important dans l’évolution de l’intelligence
artificielle. En effet, cette branche a connu un certain succès à partir des années quatre-
vingts. Ces systèmes ont pour but de modéliser l’expertise humaine dans un domaine
spécifique. Ils comportent deux modules dont une base de connaissances et un moteur
d’inférence. Ce sont, selon FERBER, « des programmes informatiques capables de
176
Automatiquement si l’usager n’opère pas un choix explicite.
177
Frame problem : problème de cadre de référence identifié par John McCARTHY et Patrick J. HAYES
(1969). Ils insistent sur la nécessité de spécifier toutes les modalités d’une action en tenant compte de toutes les
conséquences de celle-ci. Ils mettent l’accent sur la difficulté de représenter le monde réel dans sa totalité car une
telle entreprise entraînerait rapidement une explosion combinatoire. En effet, plus une situation se complique,
plus la charge de calcul augmente. Le monde n’évolue pas spontanément. Toute modification qui n’est pas
mentionnée implicitement est considérée comme n’ayant pas eu lieu.
66
Première partie ─ De nouvelles machines à communiquer
remplacer l’être humain dans ses tâches réputées les plus complexes et qui réclament de
l’expérience, du savoir-faire et une certaine forme de raisonnement. »178
178
Jacques FERBER, op. cit. p. 6.
67
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Or, on constate en 2004 que les médias portent surtout leur attention sur les moteurs de
recherche. Nous avons énoncé l’hypothèse selon laquelle les moteurs auraient intégré la
technologie associée aux agents intelligents et cette intégration expliquerait en grande
partie leur succès auprès du public. En effet, les agents logiciels n’ont pas connu le succès
escompté. D’après nos enquêtes, peu de personnes connaissent le terme. Seuls les moteurs
de recherche sont utilisés par le grand public. Pourtant, la technologie agent s’est
développée dans de nombreux domaines. Ce chapitre a pour ambition de définir le concept
en examinant les diverses définitions et d’en décrire les applications.
179
Le code « define :intelligent agent » retourne une liste de définitions à partir de dictionnaires spécialisés en-
ligne.
180
Cf. annexe 2.
68
Première partie ─ De nouvelles machines à communiquer
Stan FRANKLIN et Art GRAESSER185 proposent en 1996 une taxonomie d’agent. Les
agents autonomes comportent les agents biologiques, les robots et un troisième groupe
consistant en agents logiciels et en agents de la vie artificielle. Les agents logiciels eux-
mêmes se subdivisent en agents spécialisés dans une tâche, en agents de divertissement et
en virus.
181
Jeffrey M. BRADSHAW, An Introduction to Software agents, [Link]
[Link], livre consulté le 17 décembre 2003.
182
Idem, p. 4.
183
Don Gilbert et al. IBM intelligent agent strategy, IBM, 1995.
184
Hyacinth NWANA , “Software Agents : An Overview”, Knowledge Engineering Review, Vol.11, N° 3, p. 6-
8, Sept. 1996.
185
Stan FRANKLIN et Art GRAESSER, “Is it an Agent, or just a Program?: A Taxonomy for Autonomous
Agents” , Proceedings of the third international workshop on agent theories, architectures, and languages,
New York, Springer-Verlag, 1996, source web:
[Link]
/[Link]+%22IBM+intelligent+agent+strategy%22&hl=fr
69
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Définition
« Objet utilisant les techniques de l'intelligence artificielle : il adapte son comportement à son
environnement et en mémorisant ses expériences, se comporte comme un sous-système capable
d'apprentissage : il enrichit le système qui l'utilise en ajoutant, au cours du temps, des fonctions
186
automatiques de traitement, de contrôle, de mémorisation ou de transfert d'informations. »
En réalité, le terme agent est une métaphore. Ce mot vient du verbe latin agere qui
signifie conduire ou agir pour quelqu’un d’autre188 par délégation. Le programme, donc,
agit comme un humain à qui on a confié une tâche ou une mission.
186
AFNOR, Vocabulaire de la documentation, 2e édition, 1987.
187
Notamment les métamoteurs en-ligne ou hors ligne sont présentés comme agents intelligents.
188
Jeffrey M. BRADSHAW, op. cit. p.6.
189
Patrick BALDIT, Les agents Intelligents : Qui sont-ils ? Que font-ils ? Où nous mènent-ils?, Direction de
l’Information scientifique et technique, CEA/Saclay, Rapport CEA-R-5777, Gif-sur-Yvette, 1997, p. 5.
190
Carlo REVELLI, Intelligence Stratégique sur Internet, Dunod, Paris, 1998, p. 88.
70
Première partie ─ De nouvelles machines à communiquer
Selon cet auteur, les outils disponibles sur Internet sont très éloignés des logiciels promis
par les partisans de l’intelligence artificielle, bien que « certains intègrent des technologies
issues de l’intelligence artificielle »192. Le mot « agent intelligent » est souvent employé car
le terme est vendeur. Pour le moment, ce type de logiciel semble encore au stade de projet.
Béatrice FOENIX-RIOU préfère le terme d’agent « presque intelligent » qui lui semble
plus proche de la réalité. Examinons, toutefois, à travers les travaux qui lui sont consacrés,
les tentatives de définition.
Gil DERUDET a proposé une définition en 1997. Pour ce journaliste, « un agent est un
logiciel ou tout code possédant de façon plus ou moins prononcée les trois attributs
suivants : l’autonomie, la collaboration et l’apprentissage196 ».
Il n’est donc pas facile de fournir une définition simple comprenant toute la diversité
d’objets décrits. Pour les spécialistes de la veille, le terme désigne les logiciels agents du
191
Béatrice FOENIX-RIOUX, Recherche et veille sur le Web visible et invisible, Éditions TEC & DOC, Paris,
2001, p. 136.
192
Idem, p. 136.
193
Hervé SAMIER et Victor SANDOVAL, op. cit., p. 58.
194
Idem, p 58.
195
Ibid, p. 58.
196
Gilles, DERUDET, "la révolution des agents intelligents", Internet Professionnel, N° 9, mai 1997, p. 74.
71
Les agents intelligents sur Internet : enjeux économiques et sociétaux
type métamoteur ayant la capacité d’analyser les documents et d’organiser les résultats des
requêtes. Si l’on étudie, à un niveau plus abstrait, les caractéristiques des agents à partir de
la littérature spécialisée197, on peut s’approcher d’une définition plus compréhensive.
Le degré d’autonomie d’un agent intelligent varie en fonction de sa capacité à agir sans
l’intervention humaine une fois qu’il a été paramétré. L’apprentissage désigne le processus
de mémorisation et d’adaptation à partir de l’expérience. L’agent enregistre ses expériences
et modifie son comportement en fonction de celles-ci. Sa capacité à coopérer lui permet de
collaborer avec d’autres agents, notamment les moteurs de recherches et d’autres bases de
données. La délégation implique qu’il est autorisé à agir et peut prendre des décisions après
une négociation. La proactivité s’inscrit dans un processus de prises d’initiatives : l’agent
peut anticiper des actions. Le raisonnement implique qu’il possède un moteur d’inférence.
La réactivité lui permet de modifier ses réactions en fonction de son environnement
(intranet, réseau local, Internet, extranet, ordinateur). La communication désigne sa
possibilité de dialoguer avec l’utilisateur et avec d’autres agents (métamoteurs, serveurs).
La mobilité signifie qu’il se déplace dans son environnement.
197
Hyacinth NWANA, “Software Agents : An Overview”, Knowledge Engineering Review, Vol.11, N° 3, p. 1-
40, Sept. 1996.
198
Alper CAGLAYAN, Collin HARRISON, Agent Sourcebook, A Complete Guide to Desktop, Internet, and
Intranet agents, Wiley Computer Publishing, New York, 1997.
72
Première partie ─ De nouvelles machines à communiquer
Une seconde distinction se fait entre les agents du type PULL et ceux du type PUSH. Le
verbe anglais pull signifie tirer vers soi, tandis que le mot push veut dire envoyer vers
quelqu’un d’autre. L’utilisateur initie la requête en paramétrant un agent à partir de mots-
clés ou d’expressions plus complexes. Il délègue la tâche à un agent PULL comme un
moteur ou métamoteur. Cependant, l’usager interagit avec le programme en transformant la
requête en fonction des résultats retournés.
Au contraire, avec la technologie PUSH, l’utilisateur est passif. Les logiciels de type
PUSH permettent d’accéder à des chaînes d’information thématiques ou d’actualité, comme
les chaînes de télévision ou de journaux. Les informations sont envoyées régulièrement aux
abonnés en fonction de leur profil ou de leurs centres d’intérêts définis au préalable ou
appris grâce à la vigilance du programme informatique. PointCast, Marimba et BlackWeb
constituent des exemples de logiciels de PUSH. Le moteur Google (news alerts) et certains
métamoteurs comme Copernic ont intégré ce type d’activité.
Les agents de diffusion sélective font partie de la technologie PUSH. Leur but est de
trouver pour l'utilisateur les informations susceptibles de l’intéresser sans qu’il en ait fait la
199
Idem, p. 9-14.
73
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Les agents d'alerte et de veille surveillent une source d'information ou un thème pour
prévenir l'utilisateur en fonction d'une requête prédéfinie.200Ils envoient des messages par
courrier électronique lors d’un changement de contenu. Parmi ce type d’agent, nous
rencontrons Url-Minder et NetMindHighlighter. Nous avons constaté que les moteurs de
recherche intègrent aussi ces fonctions. D’autres agents PULL surveillent les archives des
forums de discussion et les listes de diffusion.
La technologie PUSH apparaît comme une solution aux problèmes posés par la
croissance exponentielle de documents sur le Web. Il est extrêmement difficile et coûteux
(en temps) de trouver des informations recherchées uniquement par le biais du PULL. Le
PUSH, par contre, permet à l’internaute de recevoir des documents préparés pour être
téléchargés :
« La solution a été imaginée par PointCast. Il s’agit de rassembler l’information que les utilisateurs
recherchent, d’y mêler de la publicité et des annonces et de leur envoyer pendant qu’ils dorment !…
201
Avec le push, c’est l’information qui trouve l’utilisateur. »
200
Carlo REVELLI, op. cit., pp. 104-105.
201
C. BONNET, J.F. MACARY, Technologies PUSH, Eyrolles, Paris, 1998, p.36.
74
Première partie ─ De nouvelles machines à communiquer
plus poussé par rapport aux agents localisés sur un serveur à distance. Notons que si les
premiers sont téléchargeables gratuitement dans un premier temps202, les derniers restent
toujours disponibles et gratuits. Le financement du site et du développement se fait par le
biais d’autres types de modèles économiques. Nous avons observé que les moteurs de
recherche proposent un dispositif du type agent client (sur le disque dur) pour étendre
progressivement leur action vers l’usager. Ainsi on combine les avantages des deux types
d’interactions : sur le serveur et chez le client.
Le dernier mode de classement décrit les usages prévus par les éditeurs de logiciels : les
tâches accomplies par l’agent. Passons en revue ces divers types de programme en précisant
que cette liste n’est pas exhaustive.
Un agent de filtrage est conçu pour examiner des courriers reçus et détruire les e-mails
non désirés sur la messagerie, éliminer les informations non pertinentes d’une requête,
chercher et préparer des informations à partir de diverses sources. (Quelques exemples :
NewsHound, ZDNet personal View ou NewsPage Direct.)
Un agent aspirateur (retrieval agent) télécharge un site entier sur le disque dur, facilitant
ainsi l’analyse de son contenu hors-ligne. Les agents avertisseurs ou d’alerte hors-ligne
(notifiers) préviennent l’usager lorsqu’un site change, lorsqu’une information importante
arrive ou qu’un événement important se produit. Les agents de recherche (search agents)
identifient des informations pertinentes sur Internet en relation avec un ensemble de
moteurs et en fonction des préférences des usagers. Ils peuvent intégrer un module
d’apprentissage. Ce que l’on nomme ici agent fait l’objet d’un ensemble de fonctionnalités
introduites dans les progiciels d’agents intelligents du type métamoteur. Nous rencontrons
également des agents livreurs d’informations hors-ligne (delivery agents) qui, comme leur
nom l’indique, envoient des informations personnalisées aux usagers sur leur disque dur. La
connexion n’est pas établie pendant la lecture ou la consultation des documents reçus, ce
qui permettait auparavant de diminuer la consommation de bande passante. Aujourd’hui, en
2004, ce problème est moins important grâce au haut débit et aux abonnements illimités.
202
L’éditeur offre une version gratuite ou limitée dans le temps, trente jours. Après cette période, il faut acheter
le produit ou l’abandonner. Les hackers, par exemple, utilisent des cracks pour faire fonctionner le programme
illégalement (déplomber).
75
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Les agents d’achat ou comparateurs de prix (shopping agents) facilitent la recherche des
meilleurs prix pour un produit donné. Ils ne sont pas forcément appréciés par les
propriétaires des sites Web commerçants et leur entrée dans un site peut être interdite. La
concurrence pure et parfaite sur Internet ne fait pas l’unanimité. Ce type de technologie
intègre progressivement les sites des moteurs de recherche203 ou des portails.
Les agents de petites annonces (classified agents) examinent les offres de produit dans
des bases de données en fonction du sujet ou du domaine spécifié par l’internaute. Ils
envoient les résultats par e-mail. L’agent pense-bête (announcement agent) a pour mission
de rappeler à l’usager les événements ou les rendez-vous importants. Ce type d’agent peut
s’installer en-ligne ou sur le disque dur d’un PC.
D’autres types existent, certains spécialisés dans les livres (book agents) et qui cherchent
les nouveautés dans le monde de la publication en fonction des préférences des usagers. Les
203
Froogle du moteur Google ou Kelkoo acheté par Yahoo.
204
Programme conçu par Joseph WEISENBAUM, Eliza est le nom du personnage de Pygmalion de George
Bernard Shaw. En effet, ce personnage devait, dans cette pièce de théâtre, apprendre à améliorer son langage. En
fonction du domaine de la conversation, un module peut être développé, séparé du module qui génère la
conversation. WEISENBAUM appelait les modules scripts. L’un de ces scripts simulait une psychothérapie..
Source : Daniel Crevier, op. cit. p.162.
Site : [Link]
ELIZA - a friend you could never have before.
You: I feel depressed.
Eliza: Do you often feel depressed?
You: Very often.
Eliza: Please go on.
You: It's because of the weather.
Eliza: Do any other reasons not come to mind?
You: I hate winter.
Eliza: Can you elaborate on that?
76
Première partie ─ De nouvelles machines à communiquer
agents de suivi du monde des affaires (business information monitoring agents) filtrent
l’actualité économique, les publications et rapports mis sur Internet par les entreprises. Les
agents de services financiers personnalisés (financial service agents)205 apportent des
informations financières en fonction du portefeuille personnel de l’usager. Enfin, les agents
de recrutement (job agents) cherchent les profils d’éventuels candidats pour un emploi en
fonction des CV mis en-ligne.206
Un schéma d’usage émerge à partir de toutes ces descriptions : l’usager délègue une
tâche spécifique et reçoit les résultats de l’opération automatiquement sans être obligé d’en
renouveler la demande. Avec le développement de l’internet marchand et la croissance du
nombre d’usagers207, d’autres types d’agents ont été développé, notamment dans le
domaine de la sécurité. Il s’agit de programmes conçus pour protéger l’ordinateur ou le
serveur contre des attaques et des intrusions.
On constate que la plupart de ces agents ont été inventés en fonction d’une demande
d’ordre économique. Ils correspondent aux besoins des consommateurs ou des entreprises
anticipés par les développeurs et les éditeurs de logiciels. Certains sont offerts, et le coût du
développement est supporté par des modes de financement tels que le partenariat avec des
sites commerciaux, la publicité, mais rarement par abonnement pour l’instant. Ces agents
peuvent facilement s’intégrer dans des systèmes globaux de recherche d’information
comme les portails. D’ailleurs les usagers informaticiens ont la possibilité de construire
leurs propres agents grâce aux api208 (application programming interface) offerts par ces
derniers.
205
Ce type d’agent fait partie de l’offre de Yahoo et s’intègre facilement dans la barre d’outil de ce portail.
206
Source : Alper CAGLAYAN, Collin HARRISON, op. cit., p. 57-83.
207
Selon Mediamétrie, vingt-quatre millions d’internautes et près de la moitié de foyers sont connectés au haut
débit, en mars 2004, en France. Source :
[Link] consulté le 07 09 2004.
208
Langage qui permet de développer des interfaces et des programmes exploitant les ressources d’un moteur de
recherche.
209
Cet aspect soulève des problèmes d’ordre juridique sur le partage des responsabilités en cas d’erreur.
77
Les agents intelligents sur Internet : enjeux économiques et sociétaux
« Also called an Internet agent. Most commonly found on Web sites, this mini-program is designed
to retrieve specific information automatically. Agents rely on cookies to keep track of the user's
preferences, store bookmarks and deliver news through push technology. Intelligent agents can't
perform their duties if the user's browser rejects cookies, and some Web pages (especially online
210
ordering sites) will not function properly without the agent's information. »
« Software tools that help you find web sites. The idea is that you provide it information about what
you are interested in and the agent finds the information more "intelligently" that a search engine
211
would. »
« A program that automates the task of finding information on the internet, perhaps delivering a list
212
of news stories on a particular topic on the desktop every morning .»
« An automated network information gathering tool, which cruises the Internet, searching indexes
and databases for the names of documents on subjects specified by the user. Sometimes referred to
213
as a Knowbot. »
Le rôle d’un agent, selon ces définitions, consiste soit à chercher des informations pour
un internaute soit à enregistrer ses pratiques de navigation. Nous examinerons dans notre
troisième partie les conséquences de ce constat.
210
[Link]/glossary/[Link], consulté le 07 09 2004.
211
[Link]/terms/[Link], consulté le 07 09 2004.
212
[Link]/help/[Link], consulté le 07 09 2004.
213
[Link]/resources/stw/[Link], consulté le 07 09 2004.
78
Première partie ─ De nouvelles machines à communiquer
Il est maintenant nécessaire de passer en revue les agents permettant d’acquérir des
renseignements sur les goûts et comportements des internautes et d’en construire des bases
de données dont la valeur est inestimable. La recherche dans ce domaine s’est effectuée à la
fin des années 90 au MIT, notamment sous la direction de Patty MAES, fondatrice du
Software Agent Group214. Nous présenterons tout d’abord le filtrage collaboratif, le
datamining et le datawarehousing.
Le filtrage collaboratif joue un rôle essentiel dans le domaine du marketing sur Internet.
215
Ce type d’agent est présenté par Gil DERUDET comme un programme qui « trace le
profil psychologique (comportements, goûts, habitudes des utilisateurs des sites Web. »
Cette technique, appelée ACF (Automated Collaborative Filtering), permet de proposer à
un client potentiel des produits ou des services déjà choisis par d'autres clients ayant les
mêmes goûts. Lorsqu’un internaute choisit un livre à [Link], par exemple, il se voit
proposer un choix de livres commandés par d'autres clients qui ont acheté l’œuvre en
question ou, plus précisément, font partie du même groupe que lui. Ainsi, lorsque le
consommateur achète un produit, il reçoit une liste d'autres biens correspondant aux goûts
de son groupe de profil.
Ainsi, les stratégies de marketing tendraient vers une relation personnalisée avec le
client plutôt que vers la mise en relief du produit. Le but est de mieux servir en termes de
satisfaction et de fidéliser. Ces outils constituent le côté caché du site Web. Ils permettent
aux portails de peaufiner leur offre auprès des annonceurs et de générer ainsi des revenus
publicitaires.
Historiquement, c’est Patty MAES du MIT qui la première a développé un agent appelé
Firefly. Celui-ci a servi de modèle à d’autres logiciels couramment utilisés pour analyser
214
[Link] consulté le 23 08 2004.
215
DERUDET, Gilles, "La révolution des agents intelligents", Internet Professionnel, N° 9, mai 1997, p. 77.
79
Les agents intelligents sur Internet : enjeux économiques et sociétaux
L'évaluation est mise en œuvre par un menu à la gauche du nom de l'artiste. La note
attribuée s’échelonne de 1 à 6. L’internaute doit cliquer sur la case (submit and send more)
pour enregistrer sa note. A partir d'une vingtaine de musiciens évalués de cette manière,
l'utilisateur reçoit une liste d'artistes ou de titres recommandés par le programme en
fonction de son groupe de profil. Force est de constater dans ce dispositif que la
participation active de l’usager est indispensable.
216
Paul THURROT, “It’s official, Microsoft to acquire FireFly” Windows Network and Net Magazine, 9 avril
1998. [Link] consulté le 8 juillet 2004.
217
Alper CAGLAYAN, Collin HARRISON, op. cit. p. 75-76.
80
Première partie ─ De nouvelles machines à communiquer
ci permet d’analyser des résultats et d’en chercher des corrélations insoupçonnées. Il s’agit
du datamining (fouille de données).
Cette technique a pour objectif d’extraire des informations pertinentes d’une masse
importante de données218. Elle joue un rôle essentiel pour les entreprises qui cherchent à
établir une relation « un à un » (one-to-one) avec leurs clients. Si l’on veut développer le
commerce sur Internet, le datamining sera indispensable d’autant plus qu’il permet de
mieux connaître le client en fonction de ses choix de pages visitées, des produits qu’il
commande, ou de sa navigation sur Internet. L’usage des cookies219 facilite l’identification
et la suivie des visiteurs.
Les entreprises, lors des transactions enregistrées, possèdent déjà des renseignements sur
leurs clients. Il leur suffit d’archiver ces données pour créer la mémoire (clientèle) de
l’entreprise et d’ajouter de l’intelligence pour en améliorer l’utilisation. Qui plus est, cette
mémoire structurée permettrait de faire des prédictions sur la consommation future de sa
clientèle.
Historiquement, le datamining est apparu au début des années 90, rendu possible par la
capacité de l’informatique à gérer des masses de données considérables. Il s’inscrit dans un
contexte extrêmement concurrentiel lié à la croissance du commerce international et au
phénomène de mondialisation. L’informatique a permis l’archivage des données et
l’intelligence artificielle l’exploitation de celles-ci.
218
La première définition donnée par Google (define :data mining) : An information extraction activity whose
goal is to discover hidden facts contained in databases. Using a combination of machine learning, statistical
analysis, modeling techniques and database technology, data mining finds patterns and subtle relationships in
data and infers rules that allow the prediction of future results. Typical applications include market
segmentation, customer profiling, fraud detection, evaluation of retail promotions, and credit risk analysis.
[Link]/[Link], consulté le 23 08 2004.
219
A chaque visiteur d’un site, correspond un cookie ou identifiant. Lorsqu'un internaute se connecte à un site
pour la première fois, le serveur Web envoie une page (HTML) destinée à créer un cookie. C'est le navigateur
Web qui crée le cookie (ou fichier identifiant) qui contient des informations (nom, date d'expiration, nom de site
de la page Web d'origine). Quand un utilisateur visite le site pour consulter une page une seconde fois, le serveur
Web vérifie s'il existe un cookie correspondant à cette page sur le disque dur du visiteur.
81
Les agents intelligents sur Internet : enjeux économiques et sociétaux
d’algorithmes génétiques pour améliorer les résultats des réseaux de neurones, et enfin le
raisonnement à base de cas. Sur Internet, les informations concernant les internautes sont
enregistrées par les cookies et envoyées par clickstreams (chemin de navigation d’un
internaute) vers les systèmes d’analyse et de traitement et conservées dans les
datawarehouses (entrepôts de données). Ces banques de données permettent de retrouver
les coordonnées d'un client, de retracer ses commandes et son comportement précédent.
220
Le surfing représentait 30% du trafic en 2001 contre 60% en accès direct à partir des signets enregistrés par
l’internaute, et 10% à partir d’un moteur. Cf. annexe 15.
221
Information non pertinente.
82
Première partie ─ De nouvelles machines à communiquer
On peut constater que les agents se connectent à l’ensemble des ressources qui
structurent l’organisation de l’information, de la connaissance et du savoir sur Internet. Plus
ils sont perfectionnés, plus ils comportent des langages permettant d’interroger avec
précision les autres outils et sources d’information. Cependant, utiliser un agent, le
paramétrer et en exploiter les fonctionnalités représente un coût en termes de temps et
d’efforts d’apprentissage.
Les moteurs de recherche indexent des pages Web et permettent à l’internaute de trouver
des documents. Néanmoins, aucun moteur ne couvre l’ensemble des ressources du Web.
Par conséquent, on désigne par le Web invisible cette partie d’Internet non indexée par les
moteurs. Quant aux métamoteurs, ils interrogent simultanément plusieurs moteurs de
recherche, des annuaires spécialisés et même des annuaires contenant des liens vers le Web
invisible. Leur utilité dépendrait en partie du nombre de sources accessibles. Cependant, un
grand nombre de sources n’implique pas forcément de meilleurs résultats. Qui plus est, le
temps de requête est beaucoup plus long. Pour l’instant, les agents logiciels semblent avoir
perdu la bataille. Ont-ils pour autant perdu la guerre ? Nous comparerons les agents
222
Copernic propose un logiciel agent indexant les fichiers de l’usager, son e-mail, et permettant une recherche
sur Internet par le biais d’alltheweb. Google a lancé le 14 octobre 2004 sa version d’un moteur de recherche
interne.
223
D’abord Google, ensuite Overture.
83
Les agents intelligents sur Internet : enjeux économiques et sociétaux
84
Première partie ─ De nouvelles machines à communiquer
Notre choix se justifie de la manière suivante. Copernic comme Google sont, à notre
avis, à la pointe de l’innovation. Les autres moteurs, en règle générale, suivent les
nouveautés proposées par Google, qui représente, comme nous l’avons affirmé déjà 73%
environ du trafic. Toutefois, nous ferons référence aux autres moteurs et agents de
recherche à titre de comparaison. Les tableaux descriptifs de ces derniers sont présentés en
annexes225.
Il nous semble nécessaire d’établir une grille d’analyse pour comparer les fonctionnalités
de ces deux produits. Ensuite nous présenterons la technologie de Copernic, puis celle de
Google. Enfin, nous essaierons d’expliquer le modèle socio-technique qui a permis à
Google de devenir, pour l’instant, leader de ce marché en plein développement.
224
Le verbe “to google” est entré dans la langue américaine pour signifier « faire une requête ou une recherche
sur Internet ». Exemple : To run something or someone through Google, the first step in researching anything.
"Did you Google him yet?" [Link]/story/[Link]
225
Cf. annexes 4.
85
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Certains ont accès à des bases de données spécialisées, à des annuaires ou à des moteurs
de recherche sectoriels, aux sites fédérateurs donnant accès au Web invisible. Le nombre de
sources est souvent publié par l’éditeur de logiciel dans les pages descriptives du produit.
L’usager peut également choisir ses propres sources et ainsi personnaliser ses requêtes. Les
chaînes d’information (journaux, fils229 (threads) des agents de presse, dépêches.) font
partie de l’offre de même que les sites du commerce en-ligne. Les catégories de la
recherche désignent les thèmes, classés par rubrique, figurant dans les annuaires.
L’usager peut choisir un domaine comme les groupes de discussion (Deja, Cent,
[Link] ou Topica), les annuaires d’adresses du courrier électronique InfoSpace,
(Internet Address Finder, Mirabilis, Snap, WhoWhere et Yahoo People Search), le
226
Cf. annexe 4.
227
Source : le site de webcrawler : [Link] consulté
le 7 juillet 2004.
228
Google n’autorise une méta-requête que dans le cadre d’un partenariat.
229
Le terme fil d’information implique le suivi d’une information dans le temps ou d’une correspondance par e-
mail. Il traduit l’anglais thread.
86
Première partie ─ De nouvelles machines à communiquer
Le choix d’un format joue un rôle important dans la recherche documentaire. Par
exemple, si l’on veut un article scientifique, en paramétrant le format pdf uniquement, il est
possible d’éliminer une quantité de pages (commerciales).
230
C’est le cas de StrategicFinder.
231
Moteur de recherche ou annuaire.
87
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Google possède une première page d’accueil très simple et très dépouillée. Teoma et
alltheweb font de même. Ask Jeeves, par contre est plus chargé en information. Yahoo est
beaucoup plus complexe, proposant les rubriques de son annuaire et des liens vers des sites
commerciaux.
L’analyse des résultats paraît le point le plus problématique pour l’instant232. Il est
probable que ce facteur détermine en partie le prix d’un logiciel de veille. Certains, en effet,
proposent des fonctions d’analyse. Il s’agit de résumer le contenu de la page et de surligner
les mots-clés (introduits par l’usager lors de sa requête) en plusieurs couleurs. Identifier et
extraire les concepts- clés dans un document reste l’apanage des logiciels de veille proposés
aux entreprises (Autonomy, Verity, Semiomap). La traduction automatique s’améliore tout
en restant insuffisante. Dans la catégorie analyse, nous avons aussi classé l’origine du
document ou source (moteur, annuaire, base de données, vortail233) fournie par l’outil, car
elle apporte des informations significatives supplémentaires sur le document trouvé.
La fonction « filtrage des résultats » peut réduire considérablement le bruit généré par
une requête. Il s’agit notamment de pouvoir éliminer les doublons (même document
présenté par plusieurs sources), les liens morts (la page n’existe plus) et les bannières
publicitaires et pop-ups (boîte publicitaire qui apparaît sur l’écran et gêne la lecture de la
page). Certains logiciels permettent d’inclure ou d’exclure des domaines de recherche, des
langues, des pays ou des régions géographiques, la date de modification de la page Web.
A titre d’exemple, webcrawler permet de filtrer les sites pour adultes (pornographiques),
ou de filtrer un document en fonction de la date (avant ou après la modification de la page).
Il est possible d’inclure ou d’exclure les domaines génériques (.com, .edu, .org. etc.) ou de
choisir la langue des pages à présenter. Google, par exemple, possède une fonction
232
Le rapport de la firme FULD compare les logiciels de veille destinés aux entreprises et constate que l’analyse
sémantique reste un problème majeur.
Source : Fuld & Company, Intelligence Software Report, 2002, Intelligence Software : the global evolution,
disponible au site [Link] en pdf. p.2.
233
Vortal en anglais : un portail spécialisé dans une industrie ou groupe d’intérêt.
88
Première partie ─ De nouvelles machines à communiquer
« recherchez dans ces résultats » qui permet d’introduire un ou plusieurs mots-clés pour
raffiner une requête à l’intérieur d’une liste présentée par le moteur. L’interface de Kartoo
renforce la valeur d’un terme ou permet d’en diminuer l’importance dans une reprise de
requête.
Le classement des résultats facilite leur gestion et organisation. L’usager peut les
grouper par score de pertinence (présentée en pourcentage et attribuée par les algorithmes
du moteur), date de la dernière visite, par domaine ou thème, ou en fonction des annotations
que l’usager peut faire et conserver à propos d’une page. On peut les trier également par
ordre alphabétique, sources ou dates de modification.
La catégorie « veille » facilite le suivi des requêtes et la surveillance des pages ou des
thèmes. On y trouve l’alerte par e-mail, la création d’un calendrier de veille spécifiant la
fréquence à laquelle l’usager recevra une liste d’adresses. Celle-ci dépend des thèmes
choisis au préalable. Le dispositif permet également de suivre les changements observés
dans un document et de les signaler par courrier électronique. Cependant, toute
modification ne présente pas un très grand intérêt et le paramétrage de cette fonction est
nécessaire pour réduire la quantité d’alertes envoyées. Par exemple, il est possible
d’indiquer un nombre minimum de mots modifiés. Certains logiciels surlignent
automatiquement les modifications apparues sur la page surveillée.
234
Résultats regroupés.
89
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Si le terme agent désigne souvent chez les usagers avertis un logiciel agent du type
métamoteur, l’expression recouvre également des programmes contenus dans le progiciel
(aspirateur, alertes). Nous considérons comme agents les fonctionnalités présentes dans un
outil de recherche. Ainsi à partir des critères définis ci-dessus, il nous est possible de
vérifier la présence de programmes du type agent intelligent intégrés dans les moteurs de
recherche et d’autres logiciels. Passons maintenant à la validation de notre première
hypothèse : les moteurs de recherche ont intégré la technologie agent pour devenir de
véritables agents intelligents. Notons par ailleurs que ce terme désigne un ensemble et des
éléments d’un ensemble à la fois. Par conséquent, il pose des problèmes ontologiques.
235
L’usager télécharge un logiciel qu’il installe sur son ordinateur.
90
Première partie ─ De nouvelles machines à communiquer
de 23 ans236, ses produits sont destinés au grand public et aux PME. Selon le communiqué
de presse237 de la firme québécoise, trente millions de logiciels auraient été installés,
répartis dans le monde entier, depuis le lancement du produit en automne 1997. Il existe
trois versions de Copernic Agent : Copernic Basic (gratuit), Copernic Personal, Copernic
Pro. L’emploi du terme « agent » l’associe d’emblée à la notion d’agent intelligent dans la
mesure où le logiciel agit pour le compte de l’utilisateur et est supposé exploiter les
ressources de la recherche en IA. L’entreprise ne publie pas pour l’instant ses résultats.
On peut constater que les différences entre les divers logiciels proposés par la société
canadienne découlent du nombre supérieur de sources, de chaînes et de fonctionnalités
proposées. La version BASIC comporte des bannières publicitaires pour financer238 en
partie la gratuité du produit. La fonction de veille est réservée à la version Pro. A titre
d’exemple, cette dernière propose une vingtaine de fonctionnalités que la version Basic ne
possède pas. Il s’agit, en l’occurrence, de pouvoir faire des recherches dans les groupes de
discussion, d’ajouter des domaines ou sources en option à partir du site de Copernic.
236
[Link] consulté le 16 juin 2004.
237
Idem, p. 1.
238
Quand un service ou un produit est gratuit, la publicité est difficilement contournable. Payer permet d’accéder
à des options qui bloquent les pop-ups.
91
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Les concepteurs du produit ont une certaine représentation de l’usager239 : une personne
qui fait de la veille ou de la recherche sur Internet, ayant certains besoins en matière de
sources d’information. Cet usager idéal est considéré comme actif et capable d’interagir
avec le logiciel. Par conséquent, les versions évoluent en ce sens car de nouveaux besoins
entraînent l’ajout de fonctions innovantes. Si les cookies, installés sur les disques durs,
renseignent l’éditeur sur les difficultés rencontrées par les usagers, il peut adapter ces
produits très rapidement.
Copernic 2001 Server est une solution Web de recherche distribuée, conçue pour les
entreprises. Ce produit interroge des centaines de sources d’information spécialisées et
multilingues - dont des bases de données d’affaires. On constate que ce logiciel tient
compte des exigences de la globalisation en intégrant des fonctions de compréhension des
langues étrangères. C’est l’un des enjeux des agents intelligents : gérer les informations en
provenance de sources écrites en différentes langues.
Il nous semble que cette entreprise canadienne a développé tout d’abord une technologie
de pointe destinée au grand public avant de sortir des solutions adaptées aux besoins de
veille et de gestion du savoir des entreprises. Le modèle de la gratuité ou de la
239
Patrice FLICHY , op. cit., p. 89.
240
Platform: Windows NT 4 Server, Windows 2000 Server, Price: $15,000 per processor.
[Link] consulté le 23 janvier 2004.
92
Première partie ─ De nouvelles machines à communiquer
démonstration pendant un temps limité permet aux entreprises de prendre connaissance des
produits Copernic, de les tester, avant de décider de les acheter.
Pour mieux comprendre la nature d’un agent logiciel du type métamoteur hors ligne,
nous examinerons les diverses fonctions de Copernic Pro241. Il nous a paru judicieux de les
regrouper selon la catégorisation présentée plus haut : sources, paramétrage, interface,
analyse, filtrage, classement, veille, archivage et communication. Il comprend certaines
phases du cycle de la veille242. Toutefois il faut préciser que les informations ci-dessous
proviennent du site243 de la firme canadienne.
241
Source : Famille de produits Copernic Agent, Spécifications techniques,
[Link] le 20 janvier, 2004
242
“The intelligence cycle : planning and direction, published information, primary source collection, analysis
and production, report and inform”. Source : Fuld & Company, Intelligence Software Report, 2002, Intelligence
Software : the global evolution, disponible sur le site [Link] en pdf. p.2.
243
Source : [Link] consulté le 24 08 2004.
244
Google, par contre, la refuse sauf sous certaines conditions.
93
Les agents intelligents sur Internet : enjeux économiques et sociétaux
chaque catégorie et chacune des recherches. Il peut modifier un certain nombre d'options de
configuration comme les options d'affichage, résumés, rapports e-mail, avertissements et
délais d'attente.
La barre d'aperçu des documents s’insère dans la fenêtre principale. L’usager peut
déterminer la pertinence des documents sélectionnés avant de les consulter par le
truchement du navigateur. Pour accélérer le processus, les documents chargés sont
94
Première partie ─ De nouvelles machines à communiquer
conservés dans la mémoire-cache d'Internet Explorer. Il existe aussi une barre de filtres
comprenant plusieurs options pour filtrer les listes de résultats.
Une dernière barre de recherche dans les résultats inclut plusieurs fonctions avancées
pour rechercher des mots dans les listes des résultats et dans les pages Web trouvées. Le
filtrage est d’autant plus important qu’il permet de réduire le bruit et de diminuer la
surcharge d’informations qui constitue l’un des problèmes majeurs d’Internet, que les
agents intelligents devaient résoudre.
L’analyse des documents permet d'extraire des données à partir des pages Web trouvées
ou de les sauvegarder pour passer à l’analyse hors connexion245. Il est également possible
d’en extraire les concepts-clés.
La version Pro intègre le logiciel de synthèse de texte de Copernic. Ayant recours à des
algorithmes basés sur des calculs statistiques et des données linguistiques, Copernic
Summarizer identifie les concepts-clés d'un texte et en extrait les phrases les plus
marquantes, produisant ainsi un résumé du document.
Cet agent produit un résumé (ou synthèse) de la dimension désirée (10%, 25 %, etc.) à
partir d'un texte rédigé dans l'une des quatre langues retenues. Il résume des documents
Word ou PDF, des pages Web, des courriers électroniques et le contenu du Presse-papiers.
En plus, il s'intègre aux applications les plus répandues (Internet Explorer, Netscape
245
Fonction aspirateur.
95
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Il est possible d’obtenir des résumés tout en navigant. Copernic LiveSummarizer génère
en temps réel un résumé concis de la page affichée tout en poursuivant son périple sur le
Web. L’internaute peut donc déterminer, sur la base de celui-ci, s'il lui est utile de lire la
page Web en entier ou non. La technologie WebEssence élimine le contenu non pertinent
des pages Web comme les publicités. Il contribue à réduire le bruit et la surcharge
d’informations. Nous n’avons pas encore constaté sur pièce ce type de fonction offerte par
les moteurs de recherche.
La liste détaillée des résultats par requête fournit les données suivantes: titre du résultat,
extrait, score de pertinence, liens et langues des pages Web, annotation, date, moteurs de
recherche et concepts-clés. L’utilisation d'éléments visuels dans les listes de résultats
(icônes, soulignement, caractères gras et couleurs) améliore l’ergonomie du système, de
même que le surlignage des mots-clés dans les résultats et les pages Web affichées dans
Internet Explorer.
Il est possible de trier et de classer les listes de résultats selon divers champs: titre,
extrait, adresse, score, date de repérage, date de visite, date de modification, moteur de
recherche. L’usager peut aussi grouper les listes de résultats selon les mêmes champs ou en
96
Première partie ─ De nouvelles machines à communiquer
ajouter quelques nouveaux : état - nouveau, état - visité, état - sauvegardé, état - annoté, état
- coché, domaine, contenu des annotations, langue, contenu identique. L’annotation des
résultats apporte un avantage non négligeable.
L’intégration du menu Favoris d'Internet Explorer facilite l'ajout des liens de résultats.
Le logiciel permet de consulter des pages Web trouvées au cours de l'exécution d'une
requête, fonctionnalité que les moteurs ne possèdent pas encore. Cette fonctionnalité nous
semble intéressante dans la mesure où elle compense la lenteur du métamoteur par rapport
aux moteurs généralistes.
Toutefois, on constate qu’une requête par Copernic prend plus de temps que celle
effectuée par un moteur de recherche. En effet, l’agent doit charger et traiter en aval des
résultats provenant de multiples sources.
Copernic Pro permet de mettre en veille une page Web pour détecter automatiquement
des changements. Cela peut se faire de façon périodique et selon le nombre minimal de
mots fixé en rapportant ces modifications en les surlignant dans les pages. Il est inutile de
savoir si un document change, s’il ne s’agit que de quelques changements minimes et sans
importance significative. Le système fait preuve de plus d’intelligence que par le passé en
autorisant plus de précision sur le type de modification surveillée.
Il est possible de combiner la veille des recherches thématiques et celle des pages Web ;
et de garder disponible un rapport de progression du processus durant l'exécution des tâches
automatisées. De surcroît, une icône apparaît dans la barre de tâches de Windows au cours
de l’activité pour signaler que l’opération s’effectue.
246
Pré-défini : plusieurs fois par jour, sur une base journalière, hebdomadaire ou mensuelle.
97
Les agents intelligents sur Internet : enjeux économiques et sociétaux
L’automatisation des tâches constitue l’un des avantages des systèmes informatiques le
plus courant et le plus important. Elle peut faciliter la veille sur Internet et repose sur la
capacité d’un système à mémoriser et à conserver des instructions. Cette automatisation
chez Copernic se traduit par la validation des liens, l'analyse des contenus et l'extraction de
données des pages Web, le téléchargement des pages trouvées (fonction aspirateur) qui sera
suivi par une phase d’analyse hors ligne.
Le logiciel propose une mise à jour des recherches afin de trouver de nouveaux résultats
avec marquage de ceux-ci. Ainsi, l’usager peut consulter d’anciennes requêtes et les
comparer avec une nouvelle. Rien ne l’empêche de modifier les critères de recherche pour
obtenir des résultats plus précis et plus probants. Il reste la possibilité de dupliquer les
formulations de requête avec tous leurs paramètres et résultats afin d'accélérer la création
de recherches identiques.
Ces fonctionnalités exigent des stratégies et de l’expertise. Elles impliquent une forte
interactivité entre l’homme et la machine. Il n’est nullement question d’autonomie totale de
l’agent. On peut parler plutôt d’automatisation programmable.
Par communication, on entend le fait de pouvoir échanger des données avec d’autres
agents, les usagers, les divers formats de document et d’autres logiciels. Copernic permet
d'exporter ou d’importer un rapport de recherche sous différents formats de fichiers:
HTML, Word (.doc), texte (.txt), XML. Sa communication avec l’usager se fait par le biais
de l’interface (barres d’outils) et par sa capacité à renvoyer des résultats et des rapports vers
d’autres personnes.
Nous avons constaté que Copernic Pro manifeste un grand nombre des caractéristiques
d’un agent intelligent, défini en termes abstraits comme la capacité à communiquer avec
l’usager par son interface (barres d’outils), ou avec d’autres agents, notamment les moteurs
de recherche et les bases de données ou la possibilité d’envoyer des résultats à d’autres
98
Première partie ─ De nouvelles machines à communiquer
personnes. Il possède un certain degré d’autonomie une fois le système paramétré par
l’utilisateur et une mémoire de ses activités.
Nous présentons, en annexe247, à partir des données fournies par le site de Copernic, un
tableau comparatif des trois agents commercialisés par cette firme en 2003.
Ce tableau montre clairement les diverses fonctionnalités utiles, voire nécessaires, pour
la veille sur Internet. On peut considérer chaque module comme un agent intelligent
autonome intégré dans le progiciel. D’autres fonctions pourraient voir le jour si l’éditeur
estime qu’elles correspondent aux besoins des usagers. L’exemple de Copernic nous permet
de comparer un moteur de recherche avec un logiciel agent et de répondre à notre première
question de recherche. Passons à présent de Copernic à Google.
247
Cf. annexe 4.
99
Les agents intelligents sur Internet : enjeux économiques et sociétaux
100
Première partie ─ De nouvelles machines à communiquer
Il est possible de choisir entre 10, 20, 30, 50 ou 100 résultats affichés par requête. Une
fonctionnalité caractéristique des agents intelligents concerne le paramétrage des mots-clés
dans les diverses parties du document HTML : « n’importe où dans la page », « dans le
titre », « dans le corps de la page », « dans l’adresse de la page », et « dans les liens de la
page ». La possibilité existe de choisir une langue particulière ou toutes les langues par
défaut. Le choix de format (.pdf, .ps,.doc, .xls ou .ppt) permet d’affiner la recherche et de
gagner du temps.
Paramétrer la date (trois derniers mois, six derniers mois, l’année dernière) constitue une
fonction supplémentaire diminuant considérablement le nombre de documents proposés.
Deux boîtes de dialogue, en bas de la page Google, peuvent s’avérer utiles à favoriser une
recherche heuristique : similaires ou pages similaires à cette page et liens ou pages liés à
cette page. Il est possible de limiter une recherche à l’intérieur d’un site en précisant l’url
de celui-ci.
248
Cf. annexe 6.
101
Les agents intelligents sur Internet : enjeux économiques et sociétaux
249
« The flesh is weak, but the mind is strong », un des premiers problèmes de traduction automatique observée,
est traduit par « la chair est faible mais l’esprit est fort. »
250
Voici quelques exemples de traduction automatique :
« L'intelligence artificielle cherche à explorer de nouvelles modes de cognition. »
Traduction Google : « The artificial intelligence seeks to explore new fashions of cognition. »
« Les outils linguistiques de Google s'avèrent très innovants. Il est possible de paramétrer les langues et les
pays. »
Traduction Google : « The linguistic tools of Google prove very innovating. It is possible to parameterize the
languages and the countries. »
« OpenCyc is the open source version of the Cyc technology, the world's largest and most complete general
knowledge base and commonsense reasoning engine. Cycorp, the builders of Cyc, have set up an independent
organization, [Link], to disseminate and administer OpenCyc, and have committed to a pipeline through
which all current and future Cyc technology will flow into ResearchCyc (available for R&D in academia and
industry) and then OpenCyc. »
« OpenCyc est la version ouverte de source de la technologie de Cyc, base du monde de la plus grands et les plus
complets de connaissance générale et moteur de raisonnement de commonsense. Cycorp, les constructeurs de
Cyc, ont installé une organisation indépendante, [Link], pour disséminer et administrer OpenCyc, et l'ont
commis à une canalisation par laquelle toute la technologie actuelle et future de Cyc coulera dans ResearchCyc
(disponible pour le R&d dans le milieu universitaire et l'industrie) et puis OpenCyc. »
Ces exemples montrent que les textes assez simples et dépourvus d’ambiguïté peuvent être traduits et présentés
d’une manière compréhensible. L’exemple suivant montre que la métaphore et les expressions idiomatiques
posent quelques difficultés.
« He has a bee in his belfry250. She is the apple of her father's eye. »
Traduction Google : « Il a une abeille dans le sien belfry. Elle est la prunelle de l'oeil de son père. »
102
Première partie ─ De nouvelles machines à communiquer
Nous présentons en annexe251 la liste complète des mots réservés dont l’usager averti
peut se servir. Il faut préciser que ce type d’usage reste exceptionnel et plutôt réservé aux
« mordus » de Google. Nous verrons dans notre analyse des usages que l’utilisateur moyen
se contente d’une requête assez rudimentaire. Si tant de fonctionnalités existent, c’est que le
moteur s’adresse à une communauté d’usagers qui s’intéresse aux innovations.
251
Cf. annexe 6.
103
Les agents intelligents sur Internet : enjeux économiques et sociétaux
L’interface de sa page d’accueil (ci-dessus) est très simple, affichant en haut de cette
252
page une barre pour naviguer vers six fonctionnalités spécialisées : Web, Image,
Groupes, Répertoire, Actualités et Desktop253. La page Web permet d’entreprendre une
requête générale sur Internet. Le bouton Recherche Google active la requête et produit une
liste de résultats tandis que « j’ai de la chance » présente le résultat considéré comme le
plus pertinent. La page Image exclut les textes. Cependant par le biais d’une image, il est
possible d’explorer des sites contenant l’image recherchée et d’accéder à des sources
d’information inattendue. La page Groupes renvoie à des forums. Le Répertoire correspond
à un annuaire thématique du type Yahoo. Il est fourni par le Open Directory Project.
Un moteur (Actualités) spécialisé dans les articles d’actualités est disponible. L’usager
se voit présenter un journal sur Internet dont la ligne éditoriale est totalement automatisée.
La mise à jour se fait toutes les quatre heures environ254. L’annuaire présente sept
rubriques : A la une, International, France, Economie, Science/Tech, Sports, Culture et
Santé. Une boîte de dialogue permet d’interroger le moteur sur un thème choisi.
Nous étudierons dans le chapitre le fonctionnement de la barre d’outils, qui fait partie de
l’interface prolongée.
L’analyse des résultats, en effet, se fait en partie par le biais de la barre d’outils.
L’usager peut surligner les mots-clés de sa requête ou choisir un mot-clé et descendre la
page d’occurrence en occurrence. Pour ce faire, il suffit de cliquer sur le mot dans la boîte
de la barre. Néanmoins la fonction « Rechercher dans cette page » (CRLT + F), qui peut
s’activer lors de la consultation des résultats, permet de trouver une expression ou un mot
dans un document. Cependant, il s’agit d’une fonction intégrée dans Windows, donc
indépendante de Google. Toutefois, il est également possible de retrouver cette fonction en
bas de la page de résultats.
252
Web Images Groups Directory News.
253
La nouvelle interface américaine présente sept fonctions : Web, Image, Groups, News, Froogle, Desktop et
more. More renvoie à l’ensemble des services proposés.
254
Un service d’alerte (PUSH) est aussi disponible.
104
Première partie ─ De nouvelles machines à communiquer
Le filtrage des résultats s’effectue dans la page Recherche avancée. Il est possible de
filtrer la requête déjà lancée, en introduisant une expression exacte, en excluant un mot, en
limitant les langues, les formats, la date (de la dernière mise à jour), l’emplacement des
mots dans le document (titre, corps, adresse), les domaines Internet (.com, [Link], etc.) Une
fois cette opération faite, on relance la requête. L’ensemble de ces paramètres facilite la
réduction du bruit, mais le processus exige efforts et expertise de la part de l’internaute. Il
est également possible de filtrer les résultats à caractère sexuel ou obscène (SafeSearch)
dans la page Préférences de la version américaine du moteur. On a le choix entre use strict
filtering (Filter both explicit text and explicit images), use moderate filtering (Filter explicit
images only – default behaviour) et do not filter my search results. Cette fonction est
absente de la version française du moteur.
Le classement des résultats pose un problème puisqu’il n’existe pas dans l’interface
proposée par le moteur. Cependant, il est possible de créer des programmes (hacks) pour
organiser la liste des résultats.
Comme chez Copernic, Google offre certains services utiles pour la veille. Le dispositif
se situe au niveau thématique et au niveau actualités. Cependant, les deux services sont en
phase d’expérimentation. Pour y participer, l’usager s’engage à respecter certaines règles255.
Qui plus est, ce dernier est encouragé à participer activement sans recevoir aucune
compensation. Cela fait partie de la relation usager - service fondée, sur la gratuité. Google
s’autorise le traitement statistique et le partage des informations ainsi analysées avec ses
partenaires commerciaux. Toutefois, aucune information nominale ne sera transmise, sauf
en cas d’actes criminels. Un dispositif de feedback se trouve associé à ce service.
255
Google alerts, terms of use, [Link] consulté le 25 08 2004.
256
[Link]
105
Les agents intelligents sur Internet : enjeux économiques et sociétaux
résultats à intervalles réguliers lorsqu’un nouveau document sur le sujet est indexé.
L’usager doit s’abonner à ce service, posséder un nom d’utilisateur et un mot de passe.
Cette fonctionnalité d’alerte représente un service utile pour la veille. Nous l’avons déjà
observé avec Copernic Pro. Ce dernier, cependant, offre un dispositif plus élaboré et
sophistiqué.
Le suivi de l’actualité est possible grâce à GoogleNewsAlerts260, qui, pour l’instant, fait
partie des projets testés par GoogleLabs. Ce service261 permet de paramétrer les thèmes à
suivre. Si un événement se produit, Google envoie un courrier électronique (Mode PUSH) à
l’usager avec des liens vers des sites journalistiques, préparés par GoogleNews. Comme
dans d’autres fonctions expérimentées, l’internaute est invité à fournir des commentaires et
à participer à un forum sur le produit. C’est la méthode développée autour des GoogleLabs.
257
[Link]
258
Google Alert
Tell a friend
Friend’s name
Friend’s e-mail
Suggest my searches to this friend.
259
La valeur d’un réseau augmente en proportion du carré du nombre de ses usagers.
260
En version bêta.
261
[Link]
106
Première partie ─ De nouvelles machines à communiquer
Ce moteur fournit d’autres services à valeur ajoutée que Copernic et d’autres logiciels
agents n’offrent pas. Par exemple, GoogleZeitgeist262 propose une page contenant les sujets
les plus populaires (hommes, femmes, thèmes, images), à un moment donné, en fonction du
nombre de requêtes enregistrées. Dans la version américaine, par contre, deux listes sont
visibles : la première affiche les dix thèmes dont le nombre de requêtes est en forte
augmentation (Gaining Queries) et la seconde ceux (Declining Queries) en perte de vitesse.
Il suffit de cliquer sur un lien thématique pour recevoir une liste de résultats classés en
fonction de la popularité des sites.
Le fait que les usagers sont impuissants à trouver des informations sans aide a suscité
une autre innovation. Certaines requêtes exigent l’expertise d’un professionnel. Google
Answers est un service payant. Ainsi on peut poser des questions à des chercheurs choisis
par Google. L’utilisateur doit ouvrir un compte au préalable. Le moteur précise ses règles
déontologiques et décline toute responsabilité concernant la validité des réponses. Avant de
262
L’esprit d’une époque, les tendances et les modes.
107
Les agents intelligents sur Internet : enjeux économiques et sociétaux
poser une question, l’usager peut consulter un annuaire affichant des questions récemment
posées.
Google prélève une commission de $ 0,50. Pour déterminer le prix Google donne
quelques conseils en fonction de la rapidité de la réponse, du temps nécessaire pour la
trouver. En effet, Google propose une méthode pour déterminer le prix. L’usager peut
proposer son thème de recherche et le prix qu’il accepte de payer pour le service. Si un
veilleur est intéressé par le sujet, il peut lui offrir ses services. Google assure l’interface de
la transaction et prélève une commission263.
D’autres services sont disponibles : accès aux dictionnaires en-ligne (define :word) ;
correction automatique de l’orthographe des mots de la requête, cotation des valeurs en
bourse (stock : code de l’entreprise), information sur une adresse url (info :), consultation
de l’annuaire téléphonique {pages blanches} (phonebook :nom), personnel
(rphonebook :nom), et professionnel (bphonebook :firm) pour l’Amérique du Nord. Google
permet aussi des calculs mathématiques simples. Il suffit d’entrer les données du problème
à traiter dans la boîte de dialogue.
263
Cf : annexe 6.
108
Première partie ─ De nouvelles machines à communiquer
264
Tableau conçu par l’auteur de cette thèse.
109
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Suite….
COMMUNICATION
partage des résultats par e-mail par + +
navigateur
édition d’un rapport (reporting) +
110
Première partie ─ De nouvelles machines à communiquer
Quels critères faut-il appliquer pour affirmer que Google correspond aux définitions
données de l’agent intelligent à la fin des années quatre-vingt-dix ? Pour répondre à cette
question, il faut examiner Google en fonction de son environnement, de la dichotomie
PUSH/PULL, ou client – serveur. Ensuite il faut le confronter à la typologie des tâches
effectuées. Enfin, il faut l’étudier par rapport aux attributs d’un agent : autonomie,
apprentissage, coopération, délégation, proactivité, raisonnement, réactivité,
communication et mobilité.
L’environnement de Google est la totalité des pages accessibles sur Internet. Cependant
le moteur étend sa présence sur les PC des usagers par le truchement de la barre d’outils et
des cookies. Sa technologie intègre le PUSH comme le PULL, notamment avec la fonction
alerte. Elle fonctionne du côté serveur mais admet une interface permanente sur
l’ordinateur de l’internaute et la possibilité pour les programmeurs de développer leurs
propres codes et interfaces.
Si l’on examine Google en fonction des tâches, on constate que ce dernier offre un choix
important d’agents. Le filtrage se fait par l’interface préférences ou par un langage de
codes265. Les algorithmes comme PageRank réduisent considérablement le nombre de
documents non pertinents. Différentes zones de la base d’indexation sont accessibles
facilement comme images, groupes, annuaires ; d’autres par code, bourse (stock), annuaire
téléphonique (phonebook) et livres ([Link]). Chaque zone comporte une page
d’accueil spécialisée. Avec Froogle, le moteur intègre un agent comparateur de prix.
Examinons Google en fonction des critères abstraits. Le moteur est autonome dans la
mesure où l’intervention humaine n’existe qu’au niveau de la programmation et de la
recherche. L’indexation se fait automatiquement et le classement des résultats dépend d’un
algorithme fondé sur la popularité de la page (liens pointant vers celle-ci) et les
265
Cf. annexe 6.
111
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Il nous semble juste d’affirmer que des fonctions et des caractéristiques de l’agent
intelligent s’intègrent dans ce moteur de recherche. Ainsi validons-nous la première
hypothèse. A présent, il nous faut déterminer pourquoi Google a connu un tel succès.
266
Cf. supra : p. 77.
112
Première partie ─ De nouvelles machines à communiquer
with other) dirige l’internaute sur le forum approprié relatif à chaque innovation267. Les
messages postés peuvent être consultés par tout le monde.
Plusieurs innovations sont à l’essai, mais, très rapidement, elles finissent par s’intégrer
dans le corps du moteur. GoogleNews (agrégateur de contenu), par exemple n’est plus à
l’état expérimental. On peut énumérer également Google Compute, Google Deskbar,
Froogle Wireless, Google Sets et Google Voice.
Google Compute, par exemple, est un projet collaboratif. On demande aux usagers de
partager leur ordinateur avec Google. Ainsi les chercheurs de la firme peuvent augmenter
leur puissance de calcul en se servant d’ordinateurs non utilisés. Google Deskbar est un
dispositif qui s’intègre dans la barre des tâches de Windows. L’usager peut, à partir de
n’importe quelle application, entreprendre une requête sur Google sans pour autant quitter
son document ou démarrer Explorer. Froogle Wireless prépare une interface pour
téléphonie mobile connectant directement au comparateur de prix. Google Sets a pour
ambition de comprendre les relations sémantiques entre des mots pour améliorer la
traduction automatique. Quant à Google Voice, ce projet cherche à rendre possible le
déclenchement d’une requête à partir du téléphone (fixe ou mobile).
Les usagers de Google (googlers selon l’expression utilisée par le moteur) se divisent en
plusieurs groupes. Tout d’abord, la masse d’usagers qui se servent de Google et envoient à
leur insu des informations sur leurs goûts et usages au moteur. Ensuite, les usagers qui se
servent des fonctionnalités avancées et téléchargent la barre d’outils. Enfin, un petit groupe
qui participe aux jeux et à l’expérimentation de GoogleLabs et s’intéresse activement aux
divers forums. Le feedback permet au moteur d’anticiper les problèmes ou les besoins des
usagers. Par ailleurs, le fait de télécharger un logiciel api devrait permettre aux
programmateurs expérimentés d’exploiter les ressources du moteur et d’innover à leur tour.
Ainsi Google a su créer ce que Nicolas CURIEN appelle l’effet de club de
consommateurs.268
267
En ce qui concerne Google NewsAlerts, le lien renvoie à cette adresse :
[Link]
268
Nicolas CURIEN, Économie des réseaux, Paris, La Découverte, p.19-40.
113
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Nous représentons par un schéma l’avantage compétitif de Google. Nous estimons que
les caractéristiques d’innovation, de puissance algorithmique, de mémoire, de communauté
d’usagers mises en place à partir d’un modèle économique fondé sur la gratuité et l’échange
expliquent en grande partie le succès de Google. Ce schéma permet d’anticiper les
évolutions. Par exemple, les interfaces spécialisées verront le jour en fonction de la
demande des utilisateurs repérée par le moteur dans les forums et grâce au feedback
permanent des requêtes.
114
Première partie ─ De nouvelles machines à communiquer
INNOVATION
(GoogleLabs)
Desk Bar
Tool Bar
Desktop search
Interfaces spécialisées
115
Les agents intelligents sur Internet : enjeux économiques et sociétaux
La mémoire joue probablement un rôle essentiel. En effet, Google indexe plus de trois
milliards de pages et en conserve la totalité en mémoire-cache (en plein texte). Le moteur
fonctionne comme une vaste mémoire des activités et des connaissances de l’humanité. Si
les documents sont dispersés à travers le Web, Google les préserve et les centralise dans ses
bases (repositories), ce qui donne naissance au mythe de la bibliothèque universelle. Celui-
ci, d’ailleurs, fait partie de la stratégie de communication de la société californienne. Sa
mission déclarée, en effet, est d’organiser l’information de la planète en la rendant
universellement utile et accessible.
Le modèle économique est très significatif. Grâce à la gratuité, les internautes participent
au développement technologique dans un esprit d’échange caractéristique des pionniers
d’Internet. Google se finance par la publicité, le référencement, les diverses catégories
d’adwords et la vente de serveurs de portails aux entreprises. Plus le nombre d’usagers
croît, plus le système prend de la valeur269, encourageant ainsi les entreprises à se faire
référencer et à acheter des mots aux enchères. Par ailleurs, la vente de ces derniers constitue
une innovation économique. Pour la première fois, on confère à un élément sémantique une
valeur marchande.
Des services à valeur ajoutée devraient émerger dans un avenir proche, soit développés
par la firme elle-même, ou par partenariat avec d’autres sociétés qui se serviront de son
logiciel api.
116
Première partie ─ De nouvelles machines à communiquer
joui d’une forte médiatisation lors du Forum économique de Davos en 2004 et lors de sa
mise en Bourse en août de la même année.
Pour conclure, Google nous semble avoir intégré et développé à son tour la technologie
agent. Afin d’améliorer l’interface et d’offrir plus de fonctions aux usagers, la firme a mis
en place un dispositif informatique téléchargeable sur le PC de l’internaute. Ainsi le moteur
augmente ses capacités par sa présence sur l’ordinateur de l’utilisateur. Nous examinerons
les conséquences de cette convergence dans notre troisième partie. Passons à présent au
concept de barre d’outil, puis celui de Desktop Search.
269
Effet réseau.
117
Les agents intelligents sur Internet : enjeux économiques et sociétaux
De surcroît, le Desktop Search (ou moteur interne) proposé depuis octobre 2004 par
Google indexe et organise le disque dur. Ainsi, la documentation de l’utilisateur devient
facilement accessible. Mais la présence du moteur sur l’ordinateur de l’usager se voit
renforcée.
La seconde partie de notre hypothèse directrice pose que les moteurs de recherche
étendent leur technologie sur le PC de l’usager. Nous nous efforcerons de valider cette
hypothèse dans ce chapitre.
Sans détailler davantage pour l’instant les aspects économiques de la relation usager /
moteur ou portail, qui seront étudiés dans notre troisième partie, on peut d’ores et déjà
préciser que l’objectif de tout portail est, selon l’expression de Josiane JOUËT, d’« agréger
des publics pour les faire passer par leur point de passage obligé, dans le but de
maximiser, là aussi, leurs revenus publicitaires271. » Ainsi faut-il que l’usager soit fidélisé
et qu’il débute une requête en passant par le même moteur de recherche à chaque fois. S’il
achète un produit, s’il clique sur un lien publicitaire, le moteur gagne de l’argent
270
Le taskbar reste ouvert quel que soit le programme utilisé. Il se situe en bas de la page de Windows.
271
Josiane JOUËT, « La pêche aux internautes », Hermès, 37, 2003, p. 203.
118
Première partie ─ De nouvelles machines à communiquer
Il existe déjà des programmes pour bloquer les pop-ups ou avertir l’internaute lorsqu’un
programme-espion pénètre sur son disque dur276. Il nous semble que la barre d’outils
272
Recettes publicitaires de Google en 2003 : 95% des recettes d’après Intelligence Center. Revenus nets : 105,6
millions de dollars, et chiffre d’affaires : $961,9 millions. Yahoo pour la même période, chiffre d’affaires 1625,1
millions de dollars et revenus nets $237,9 millions. [Link]
consulté le 28 juillet 2004.
273
Lev GROSSMAN, “Search and destroy” Time, 2 février 2004, p. 36-39.
La publicité en-ligne ne représente que 3% environ des dépenses globales loin derrière la presse et la télévision.
Source : [Link] consulté le
27octobre 2004.
274
Il faut toutefois relativiser. Le chiffre d’affaires de Microsoft pour l’année fiscale 2003 (close au 30 juin
2004) est de 36,84 milliards de dollars. Source : communiqué de presse, le 23 juillet, 2004.
[Link]
consulté le 4 8 2004.
275
Nathalie BRAFMAN, « La bataille entre Google, Microsoft et Yahoo ! est lancée », Le Monde du 14 mai
2004, p. 20.
276
Innovation de Yahoo en 2004. Scarlet PRUIT « Yahoo adds antispyware to toolbar), Infoworld, 27 mai 2004,
[Link] consulté le 22 juillet 2004. On peut
télécharger la version bêta à partir du site de Yahoo, [Link] consulté le 04 08 04.
119
Les agents intelligents sur Internet : enjeux économiques et sociétaux
L’avantage principal d’une barre d’outils, c’est que l’usager peut à tout moment, au
cours de sa navigation, se connecter au moteur et recevoir une présentation des résultats
(par liste ou par d’autres moyens de représentation278) tout en envoyant des informations au
moteur ou portail sur ses propres pratiques. Les agents de profilage utilisent celles-ci à des
fins de ciblage publicitaire. La plupart des moteurs279 et des métamoteurs offrent ce
dispositif d’interface, notamment Yahoo, Altavista, Vivisimo, Webcrawler, Teoma et
MSN. Copernic propose également depuis 2004 sa version correspondant de très près aux
fonctions décrites plus haut.
277
Le feedback permanent de l’usager vers le moteur permet de comprendre et d’anticiper la demande en temps
record, donc d’innover rapidement.
278
Cartographique ou diaporama.
279
Il existe une barre d’outils créée par la firme Softcities pour alltheweb. Cependant Copernic Desktop Search
se sert d’alltheweb comme moteur externe. Ainsi, alltheweb s’intègre dans ce dispositif.
120
Première partie ─ De nouvelles machines à communiquer
280
Cf. infra : Deuxième Partie.
121
Les agents intelligents sur Internet : enjeux économiques et sociétaux
important dans l’appropriation d’un logiciel. La rapidité entraîne son adoption. L’usager, en
contrepartie, autorise Google à suivre ses démarches281. L’image qui suit présente la barre
d’outils telle qu’elle apparaît sur la page de téléchargement.
La barre est composée d’icônes et de menus déroulants. Les rubriques sont structurées
en arborescence. Ainsi la barre est-elle omniprésente et prend peu de place dans la fenêtre
du navigateur. Le premier menu sous l’icône Google donne accès à la page d’accueil du
moteur, aux liens préétablis (Recherche Avancée, Recherche d’Image, Groupes, Répertoire,
Actualités, [Link], Zeitgeist, Préférences de recherche et Outils Linguistiques), aux
options et à la fonction « effacer historique ». Dans la rubrique Aide s’ouvrent quelques
281
Il faut cliquer sur un de ces liens avant de télécharger le logiciel. L’usage peut refuser la collecte de données
le concernant.
“You must select one of those options before clicking next.
·Enable advanced features (anonymous information to be sent to Google)
·Disenable advanced features (no information to be sent to Google)”
122
Première partie ─ De nouvelles machines à communiquer
Il est fort possible que d’autres domaines soient accessibles par ce type de moteur,
notamment celui des ouvrages publiés. Google282 est en pourparlers avec certaines maisons
d’éditions pour pouvoir indexer les œuvres entrées dans le domaine public et d’autres dont
les droits sont toujours en vigueur. L’usager pourrait consulter ou télécharger certains
d’entre eux moyennant paiement.
Une icône à droite du menu précédent oriente l’usager vers le site d’actualité de Google.
La rubrique « A la une » présente une liste de nouvelles rapidement mise à jour. Un lien à
gauche invite l’usager à se servir de la fonction d’alerte du service (agent de PUSH). Il n’y
a pas pour l’instant de possibilité de personnaliser l’actualité à la différence d’autres sites
tels que ceux de CNN, de la BBC ou de Yahoo.
282
Cf. Cf. infra. Troisième partie, chapitre trois.
123
Les agents intelligents sur Internet : enjeux économiques et sociétaux
L’icône « i » qui suit donne à l’internaute l’occasion d’élargir sa recherche vers les
pages similaires et les pages liées. Il s’agit de pages qui émettent des liens vers celle
consultée ou qui reçoivent des liens en provenance de cette même page. Google part du
postulat que les pages hyperliées partagent les mêmes centres d’intérêt ou peuvent apporter
des informations complémentaires. Cette fonction favorise la recherche heuristique
d’information. La boîte de dialogue permet de faire une recherche à partir de mots-clés.
L’icône « B » nous semble extrêmement importante. Elle bloque les pop-ups qui
risquent de gêner l’internaute lors de ses recherches. Cette fonction peut être désactivée. Le
nombre de publicités non désirées s’affiche à gauche de l’icône.
L’icône « option » s’ouvre sur une boîte de dialogue. L’internaute peut choisir les
fonctions présentes sur la barre d’outils. Si on active la fonction PageRank qui indique le
score attribué par Google à la pertinence de la page, un message s’affiche : « vous êtes en
train d’activer le bouton qui a une incidence sur la confidentialité des informations. »
L’usager est invité à cliquer sur le bouton Aide. Il est renvoyé vers la page de Google
présentant sa politique de protection de la vie privée et de la confidentialité. En d’autres
termes, l’usage de cette fonction entraîne un échange d’informations entre le moteur et
l’utilisateur283. Toutefois ce dernier en est informé.
Les deux icônes suivantes ajoutent des options d’analyse du document consulté. La
première, un stylo jaune, surligne les mots-clés de la requête. Il est possible de parcourir le
texte rapidement à la recherche de phrases pertinentes. La seconde permet de visualiser un
mot d’une manière linéaire. En cliquant sur l’un des mots de la requête, présentés à droite,
le terme apparaît sur la page. L’œil parcourt le document du haut en bas en mode de lecture
normale (pour un Occidental). Les mots de la requête apparaissent en couleur à droite. Il
suffit de cliquer sur l’un ou l’autre et celui-ci est surligné sur la page ou sur la liste. Ainsi,
l’usager peut descendre la page lentement et examiner les occurrences du terme choisi.
Cette fonction augmente la capacité d’analyse du lecteur.
283
Ce problème fera l’objet d’une section de notre Troisième Partie.
124
Première partie ─ De nouvelles machines à communiquer
Le « Voting Button » permet aux internautes de porter un jugement (binaire) sur un site
ou une page, dispositif utile pour le moteur car l’internaute envoie du feedback concernant
la pertinence ou l’intérêt du site. Comme la précédente, la fonction « Blog it » a pour
objectif de susciter des commentaires à propos d’un site. Elle implique une inscription et un
compte chez [Link] au préalable.
Pour des fonctions plus sophistiquées, il est nécessaire de visiter la page de recherche
avancée. Cette page est accessible par le biais de l’icône Google. Il existe un lexique
284
Gmail. La confidentialité du courrier est mise en cause. En effet, l’usager ayant un compte gmail autorise le
moteur à analyser automatiquement et sans intervention humaine le contenu de ses e-mails. Cependant, l’usager
qui envoie un message sans pour autant s’être abonné à ce service, risque de subir le même traitement. La
discussion est déjà ouverte entre Google et les autorités américaines et européennes sur ce point épineux.
125
Les agents intelligents sur Internet : enjeux économiques et sociétaux
permettant d’utiliser des termes spécifiques285 pour peaufiner une requête. A titre
d’exemple, le mot réservé « define » suivi du colon (:) donne accès aux définitions des
dictionnaires en-ligne. Cependant cet usage fait partie de ceux qui exigent formation et
expertise.
Google offre un taskbar qui est lisible quelle que soit l’application ouverte. Si l’usager
travaille sur Microsoft Word, le dispositif est présent sur la barre de tâche de cette
application, en bas de la page. Ainsi l’internaute peut consulter Google pour chercher une
information ou vérifier le sens ou l’orthographe d’un mot sans ouvrir son navigateur.
Google fournit un mini-navigateur. Par conséquent, l’usager peut contourner Explorer. Par
ailleurs, certains commentateurs soupçonnent Google de concevoir son propre navigateur
(gbrowser) et de concurrencer Microsoft dans ce domaine.
Une icône (crayon jaune) permet de personnaliser la barre en fonction des intérêts de
l’utilisateur (financier, recherche d’information). La boîte de dialogue offre la possibilité de
faire une requête par mots-clés. Le menu déroulant permet de choisir le domaine (Image,
Groupe, News) comme celui de Google. Au demeurant, on remarque des nouveautés
comme des Pages Jaunes, Achat (Shopping), Dictionnaire, Cartes (Maps), Bourse (Stock
Quotes). Il s’agit de moteurs ou d’annuaires spécialisés dans un domaine.
285
Cf. annexe 6.
126
Première partie ─ De nouvelles machines à communiquer
Dans ce menu, le portail offre la possibilité de créer, sur son serveur, un carnet
d’adresses accessible par mot de passe. L’internaute peut ainsi consulter ce répertoire à
partir de n’importe quel ordinateur. Il est d’ailleurs compatible avec un Palm Pilot et
Microsoft Outlook. Malheureusement pour lui l’internaute fournit des informations
confidentielles.
Comme Google, Yahoo offre une icône qui permet de bloquer les pop-ups et une autre
surligne les mots-clés. Cependant, à la différence de Google, le bouton Y ! Bookmarks
permet d’enregistrer des signets et de les organiser en-ligne, donc de les rendre consultables
en permanence. Ce dispositif, en effet, introduit le concept d’ubiquité.
Une fonction Notes offre la possibilité d’ouvrir un journal en-ligne et d’entrer des
commentaires. Elle correspond en partie à la fonction Blog de Google. La différence est
qu’un blog est visible et lisible par tous tandis que le journal chez Yahoo reste strictement
personnel. Cependant, l’internaute peut partager son journal avec autrui ou l’utiliser dans le
cadre d’un projet collaboratif.
Cette barre d’outils va plus loin pour capter des informations sur l’usager tout en lui
offrant des services multiples. Si Yahoo exploite les informations données, cela facilite
surtout le profilage à des fins publicitaires. Cette barre d’outils, qui intègre un logiciel anti-
espion en version bêta, est caractéristique d’un service de portail avec messagerie,
informations boursières et pages d’actualités. Elle permet également de conserver sur le
serveur des informations personnelles universellement accessibles, d’organiser les signets
et d’analyser les documents à partir de mots-clés surlignés. Ce dispositif contribue à la
réduction de surcharge informationnelle.
127
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Le métamoteur Webcrawler offre des liens vers les pages jaunes et blanches, comme
Yahoo, et un ticker286 qui présente les actualités de Fox News et de ABC News. Il existe
une option, SearchSpy, qui envoie vers l’usager des titres d’articles liés aux thèmes de la
recherche en cours, en mode PUSH.
Notons que certains logiciels sont conçus pour éliminer les traces qu’un usager laisse sur
son PC, traces induites par la barre d’outils. Le logiciel History Sweeper287, par exemple,
efface les traces d’activités hors ligne et en-ligne. Ce programme fonctionne avec les barres
de Google, de Yahoo et de MSN. D’autres programmes pourraient voir le jour en
partenariat avec les moteurs et les métamoteurs.
Pour réduire l’entropie du disque dur, la barre d’outils ne suffit pas. Il faut y ajouter un
moteur de recherche interne qui indexe et qui permet de faire des requêtes à partir de mots-
clés. Ainsi la technologie des moteurs de recherche devient disponible sur l’ordinateur de
l’usager, lui permettant de retrouver des documents perdus dans les fichiers de son disque
dur.
286
Ticker: barre d’information déroulante de gauche à droite, comportant des nouvelles, des actualités, des
informations boursières.
287
Site: [Link] consulté le 4 août 2004.
128
Première partie ─ De nouvelles machines à communiquer
contenant ceux-ci. Le 31 août 2004, Copernic avait lancé un logiciel Desktop Search. Ce
programme permet de lancer une requête en local. S’affiche en quelques instants une liste
de fichiers contenant les termes spécifiés. Si on clique sur l’un d’eux, la page du document
contenant les mots-clés s’ouvre sur un second écran situé en dessous du premier. Ainsi est-
il possible de consulter un texte précis. A partir de l’interface de ce logiciel, on peut faire
une requête sur Internet par le moteur alltheweb, lancer une recherche dans son courrier
électronique, ses fichiers de musique ou d’images et des sites Web enregistrés dans les
signets. D’autres systèmes, professionnels, du type Arisem et Autonomy font de même
mais leur prix reste très élevé288.
288
Cf. annexe 5.
129
Les agents intelligents sur Internet : enjeux économiques et sociétaux
L’usager peut passer facilement d’une recherche interne à une requête sur le Web
(Images, Groupes, Annuaire) sans être obligé de reformuler les termes de celle-ci.
Lorsqu’on cherche un document sur Internet, le moteur affiche également le nombre de
documents du disque dur contenant les mots-clés et présente une liste de liens les rendant
instantanément accessibles.
289
« By default, Google Desktop Search collects a limited amount of non-personal information from your
computer and sends it to Google. This includes summary information, such as the number of searches you do
and the time it takes for you to see your results, and application reports we'll use to make the program better.
You can opt out of sending this information during the installation process or from the application
preferences at any time. Personally identifying information, such as your name or address, will not be sent to
Google without your explicit permission. » Google Desktop Search Privacy Policy :
[Link] consulté le 28 novembre 2004.
130
Première partie ─ De nouvelles machines à communiquer
Cette dernière innovation permet au moteur d’être encore plus présent sur le PC et de
devenir indispensable. En effet, la quantité de documents enregistrés, les liens mis en
signet, le courrier électronique deviennent vite très difficiles à gérer. Le Desktop Search
offre une solution aux problèmes d’entropie locale et permet de récupérer certains
documents perdus dans des fichiers peu utilisés.
Il est fort probable que d’autres moteurs suivront très rapidement l’exemple de Copernic
et de Google pour maintenir leur présence et fidéliser leur clientèle.
Développement des langages api (Application Program Interface) pour construire ses
propres agents
La dernière innovation que nous présentons devrait permettre aux programmeurs de
développer leurs propres interfaces et agents compatibles avec les moteurs et les portails. Il
s’agit des langages api.
Google a lancé son api en avril 2002, fondé sur SOAP291 (Simple Object Access
Protocol). Ce programme, téléchargeable292 gratuitement, permet aux développeurs de
construire leurs propres interfaces et d’exploiter les ressources de la base de données de
Google. L’internaute reçoit une clé qui lui donne l’autorisation d’utiliser ce programme. Le
nombre de consultations est limité à 1000 requêtes par jour. Une description assez détaillée
290
Chris Sherman, « An insider’s view of Microsoft’s Longhorn search », Searchenginewatch.
[Link] consulté le 4 août 2004.
291
SOAP, protocole de communication s’appuyant sur XML et http.
292
[Link]
131
Les agents intelligents sur Internet : enjeux économiques et sociétaux
des hacks ou programmes que l’internaute peut créer est fournie par l’ouvrage de Tara
CALISHAIN et Roel DORNFEST293.
Si les internautes jouissent d’une certaine liberté dans la création d’interfaces Google,
certaines restrictions existent294 : ils ne peuvent pas l’utiliser pour vendre un produit ou un
service ni attirer des visiteurs de leur site vers des sites marchands. Il faut noter
qu’AltaVista a également conçu un langage api appelé Interface Search Services.
Cependant ce logiciel est beaucoup moins connu.
Comme nous l’avons constaté, les moteurs et les portails offrent aux internautes la
possibilité de télécharger leur barre d’outils, intégrant à des degrés différents des fonctions
de recherche et d’analyse en même temps que des services de portail d’information ou de
commerce en-ligne. Ce dispositif est simple et intuitif, favorisant la rapidité et
l’interactivité. La barre est modulable dans la mesure où l’usager peut recevoir et rajouter
certaines fonctionnalités. Cependant, un échange d’informations s’instaure entre l’usager et
le système d’information. Certaines barres d’outils invitent les usagers à fournir des
informations personnelles. Depuis peu, des moteurs de recherche interne sont disponibles
pour indexer, organiser et rendre accessibles les fichiers et documents récupérés sur Internet
ou produits par l’usager. Ces dispositifs sont téléchargeables gratuitement et séparément.
Néanmoins, les langages api vont encore plus loin en permettant aux développeurs de créer
leurs propres interfaces et d’explorer en profondeur les ressources des moteurs et
métamoteurs. En d’autres termes, ces langages facilitent la création d’agents personnalisés.
Grâce au langage api, de nouvelles interfaces voient le jour, intégrant des zones295 très
spécialisées du moteur. Par exemple, Google propose aux chercheurs et aux étudiants une
interface donnant accès aux documents scientifiques et aux thèses, « Google Scholar ».
L’option « University Search » fournit une liste complète des sites universitaires
américains. Cette firme californienne développe par ailleurs des interfaces géographiques
spécialisées dans une région spécifique ou un État particulier des États-Unis.
293
Tara CALISHAIN et Roel DORNFEST, Google à 200%, O’Reilly, Paris, 2003.
294
Source : [Link] consulté le 4 août 2004.
295
La version américaine du Desktop Search (more) permet de se connecter à l’ensemble d’interfaces déjà mis
en-ligne. [Link] consulté le 19 décembre 2004.
132
Première partie ─ De nouvelles machines à communiquer
133
Les agents intelligents sur Internet : enjeux économiques et sociétaux
1.6. CONCLUSION
Le projet de simuler ou de reproduire l’intelligence humaine, bien que très ancien, n’est
devenu réalisable que depuis l’invention de l’ordinateur. La recherche en IA, en effet, a
débuté vers 1956 et n’a abouti dans des programmes appelés agents intelligents qu’au
milieu des années quatre-vingt-dix. Ce terme, aujourd’hui, est passé de mode. Néanmoins
cette technologie, issue de la recherche en IA, s’est progressivement intégrée dans les
systèmes informatiques, notamment dans les moteurs de recherche et les portails, qui ont
pris l’avantage sur les logiciels agents dans le domaine de la recherche informationnelle.
La barrière entre le domaine privé (le disque dur) et le domaine public d’Internet devient
de plus en plus fragile. Il faut de sérieuses garanties et un système efficace d’anti-spyware
pour s’assurer que la base d’indexation de l’internaute n’est pas visible par des personnes
ou des administrations non autorisées.
134
DEUXIEME PARTIE
2.1. INTRODUCTION
Si la première partie de cette thèse traite essentiellement de l’offre technologique, la
seconde partie met l’accent sur les internautes. Ainsi a-t-elle pour objectif de connaître les
usages des outils de recherche d’informations sur Internet en France durant l’année 2003.
Après une série d’entretiens avec certains usagers et experts, nous avons construit deux
questionnaires pour connaître la manière dont les internautes français abordent ce
problème. La première enquête avait pour cible le monde universitaire (étudiants,
chercheurs, enseignants, et documentalistes). La seconde avait pour ambition de connaître
les usages des professionnels de la veille. C’est grâce à l’analyse des résultats des deux
questionnaires que nous avons pu formuler notre hypothèse directrice et orienter la
rédaction finale de notre recherche.
Dans un premier temps, il nous semblait important d’identifier les outils de recherche
employés spontanément et régulièrement par les internautes français de nos groupes pilotes.
Ensuite nous avons voulu connaître dans le détail leurs usages, leurs préférences, leurs
rythmes d’utilisation, leur degré de compétence en matière de recherche d’informations.
Enfin, il nous semblait bon de connaître la manière dont les usagers se représentaient
l’intelligence informatique.
Nous présenterons tout d’abord nos choix méthodologiques. Ensuite, nous passerons à
nos deux enquêtes. Nous les présenterons séparément avant d’en comparer et d’en
interpréter les résultats.
135
Les agents intelligents sur Internet : enjeux économiques et sociétaux
INFORMATIONNELLE
ENTRETIENS
Les entretiens296 ont débuté en 2001. Nous avons commencé par interroger plusieurs
chercheurs en TIC présents sur le campus de l’ENST. Certains choix s’imposaient
d’emblée. Fallait-il laisser l’interviewé s’exprimer librement ou imposer nos concepts et
notre vocabulaire ou cadre de référence ? Fallait-il vérifier des hypothèses ou les découvrir
par une enquête heuristique ? C’est cette seconde méthode qui a prévalu. Nous voulions
connaître les attitudes, opinions, comportements, préférences et représentations des
scientifiques qui, certes, réfléchissaient sur l’impact économique et social des nouvelles
technologies, mais qui, par contre, n’étaient que de simples utilisateurs des moteurs de
recherche et du courrier électronique.
Dans notre première série d’entretiens, nous avons posé quelques questions générales sur
les agents intelligents et les moteurs de recherche. Nous avons laissé les enquêtés
s’exprimer assez librement, n’intervenant que pour relancer la discussion. Le choix du
cadre de référence scientifique était laissé aux participants.
Pour les enquêtes d’approfondissement, nous avons choisi une méthode à mi-chemin
entre l’entretien libre et l’entretien directif. Nous avons préparé une liste de thèmes mais
296
Cf. annexe 7.
136
Deuxième partie ─ De l’observation des usages à celle des usagers
nous avons laissé une grande liberté aux enquêtés. Ils pouvaient développer leur pensée et
suivre le fil de leurs idées. Toutefois, nous nous sommes permis de relancer la discussion
ou d’introduire des thèmes que l’enquêté n’aurait pas abordés. Le schéma d’entretien était
le suivant : consigne de départ, agents logiciels et moteurs de recherche, usages et
perspectives.
Les thèmes qui nous intéressaient sont les suivants : le problème de l’apprentissage de
l’informatique et l’utilisation d’Internet, suivi des usages des moteurs et des agents. Les
représentations de ces derniers nous intéressaient plus particulièrement, notamment les
mythes, métaphores et craintes liés à la collecte de l’information. Ensuite l’importance
économique et stratégique des portails nous semblait un thème correspondant à notre
question de départ. Le rôle de la gratuité nous paraissait essentiel dans le contexte
d’Internet et des services offerts par les moteurs. Le problème relatif à la vie privée devait
faire l’objet d’une analyse approfondie. Nous avons terminé par une question prospective
sur les développements futurs et les usages envisageables.
Le choix des enquêtés était significatif dans la mesure où ces personnes jouissaient
d’une formation universitaire de haut niveau et maniaient très bien le langage. L’on sait,
d’après Rudolphe GHIGLIONE et Benjamin MATALON, que « plus une méthode est non
directive, plus elle fait appel aux capacités verbales du sujet297. »
Nous avons enregistré les entretiens qu’il a fallu transcrire. L’analyse du premier groupe
nous a permis de formuler des hypothèses et de construire nos deux questionnaires. Les
entretiens d’approfondissement nous ont aidé à interpréter les résultats de ceux-ci.
297
Rudolphe GHIGLIONE et Benjamin MATALON, Les enquêtes sociologiques, Armand Colin, Paris, 1998, p.
51.
137
Les agents intelligents sur Internet : enjeux économiques et sociétaux
sa recherche et pour ses études. Il fallait savoir quels outils étaient réellement et
régulièrement utilisés dans la recherche documentaire. Ensuite il nous intéressait de
déterminer si les usagers connaissaient des logiciels agents et s’en servaient ou s’ils se
contentaient des portails et moteurs généralistes. Quelle était la fréquence de leur
utilisation ? Y avait-il des difficultés ? La formation en matière d’usage de l’outil
informatique était-elle suffisante ou nécessaire au bon déroulement d’une recherche sur
Internet ?
D’après nos entretiens, tout laissait à penser que seuls les moteurs de recherche et les
portails comme Yahoo et Voila attiraient les internautes. Il nous semblait fort probable que
les logiciels agents du type métamoteur étaient très peu utilisés298. Il était également
possible que peu d’usagers connaissaient le terme « agent intelligent ». Très peu d’entre
eux achetaient ces produits hormis quelques professionnels.
Nous avons formulé l’hypothèse selon laquelle le premier usage en matière de recherche
d’informations consiste à choisir quelques mots-clés et un moteur de recherche. Cette
démarche devait être très rudimentaire. Par conséquent, la recherche avancée, plus
complexe et exigeant plus d’expertise et de maîtrise de l’outil informatique, ne se pratiquait
vraisemblablement guère dans le milieu universitaire. Par contre, il restait fort possible que
d’autres catégories d’usagers se servent de logiciels agents. Nous avons complété notre
première enquête par un questionnaire destiné aux entreprises. En effet, il nous semblait
probable que les cadres pratiquant la veille économique ou technologique seraient en
mesure de nous renseigner sur les usages de logiciels spécialisés. L’observation des forums
spécialisés dans la veille révélait l’intérêt porté aux systèmes d’intelligence économique et
stratégique.
Pour construire notre questionnaire, nous avons choisi les variables suivantes : le type
d’apprentissage, la première démarche lors d’une requête, le choix de l’outil le plus rapide
et le plus pertinent, le temps moyen de recherche, le temps moyen de recherche avant
l’abandon de celle-ci, le type d’usage (professionnel, privé), la fréquence d’usage,
298
Pour Michel Gensollen, les métamoteurs n’avaient pas connu le succès escompté. « Quand on regarde le
marché, il y a trois ou quatre ans, il y avait pas mal de moteurs de recherche, une douzaine à peu près. Et il y a eu
deux stratégies parallèles, celle de Copernic et celle de Google. Le premier ayant celle de l’enveloppeur, « je vais
vous donner l’ensemble de tous les moteurs », démarche très astucieuse qui aurait dû gagner, mais Google l’a
emporté. La stratégie Copernic avait des atouts, mais Google était bien meilleur. » Entretien du 16 10 03.
138
Deuxième partie ─ De l’observation des usages à celle des usagers
Dans la seconde enquête, nous avons ajouté la gratuité des moteurs, le mode de paiement
de ces services, la justification de l’achat d’un logiciel, la définition d’un agent intelligent,
les usages réguliers et exceptionnels des outils de recherche, les critères d’efficacité, les
perspectives, les facteurs de choix d’un logiciel à l’intérieur d’un service ou d’une
entreprise. Nous avons également formulé quelques questions sur l’importance d’Internet
comme source d’information et sur le temps de veille passé sur Internet.
D’emblée, nous avons retenu quatre catégories de personnes : les étudiants, les
enseignants, les chercheurs et les documentalistes. Néanmoins, la classification des
enseignants-chercheurs posait problème. En effet, une partie des enseignants de
l’Université provient de l’enseignement secondaire, une autre est composée de vacataires
d’origine très diverse (avocats, ingénieurs, cadres supérieurs), une troisième d’enseignants-
chercheurs (professeurs et maîtres de conférences). Par conséquent, nous avons décidé de
fusionner l’ensemble en un seul groupe en privilégiant la fonction d’enseignant. Les
étudiants, largement majoritaires, constituaient 79,5% de l’échantillon, les enseignants
10,2%, les chercheurs 4,6%, et les documentalistes (et bibliothécaires) 5,6%.
299
En tant qu’enseignant à Paris II et à l’École polytechnique.
139
Les agents intelligents sur Internet : enjeux économiques et sociétaux
de 49,6% pour les hommes et 50,4% pour les femmes. La distribution selon l’âge était la
suivante : moins de 18 ans (0,7%), de 18 à 25 ans (76,5%), de 26 à 35 (9,3%), de 36 à 45
(4,6%), et plus de 45 ans (8,8%). Ainsi la majorité de la population étudiée était âgée de 18
à 25 ans et poursuivait des études.
Pour la seconde enquête, nous avons séparé les professionnels de la veille en cinq
catégories dont voici la répartition : consultants (14,2%), veilleurs (14,2%), cadres
commerciaux (14,2%), documentalistes (28,6%), autres (25%). Nous avons constaté que les
documentalistes interrogés avaient pour mission dans leur entreprise de pratiquer la veille
économique ou technologique. La distribution selon le sexe était : de 57% d’hommes et de
43% de femmes. La taille des firmes variait : de 1 à 10 salariés (25,9%), de 11 à 20
(11,1%), de 21 à 100 (3,7%), de 101 à 500 (29,6%) et plus de 1000 salariés (25,6%).
Les deux enquêtes ont été distribuées en 2003, la première du 30 janvier au 30 octobre
2003, la seconde échelonnée entre le 15 mai et le 30 septembre. La première a été transmise
sur support papier tandis que la seconde s’est effectuée en-ligne par courrier électronique.
Le premier questionnaire a été distribué auprès des étudiants dans les cours, les salles de
travail, les bibliothèques et les salles d’informatique, et nous avons laissé des exemplaires à
la cafétéria de l’ENST. Certains exemplaires ont été distribués par l’intermédiaire
d’enseignants.
Il est évident que nous ne pouvions pas faire un sondage concernant toute la population
française, faute de temps et de moyens. Toutefois, la population choisie nous semblait assez
indicative des pratiques et des usages courants en 2003. Certains sites spécialisés dans
l’analyse des audiences du Web confirmaient le choix des internautes en matière de
140
Deuxième partie ─ De l’observation des usages à celle des usagers
Les deux enquêtes sont étudiées séparément : d’abord la présentation des questions,
ensuite les résultats, avec une interprétation conjointe. N’ayant pas pu déterminer la
manière dont les usagers se représentaient les agents intelligents et l’adjectif « intelligent »
qualifiant un programme, nous avons dû entreprendre une troisième enquête en 2004.
Le cinquième groupe de questions (usages des agents intelligents) avait pour but de
déterminer si les usagers connaissaient le terme « agent intelligent » et s’ils s’en servaient.
Nous avons posé une dernière question sur l’efficacité de l’outil employé. La dernière
section de l’enquête relevait les détails concernant le répondant : âge, sexe, catégorie
professionnelle, et pour les étudiants, la discipline ou spécialité. Présentons maintenant les
questions par variables et modalités.
300
Searchenginewatch ([Link] et Médiamétrie ([Link]
141
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Apprentissage de l’informatique
301
Cf. annexe 8.
302
Notre entretien du 19 avril 2004 avec Serge Proulx a renforcé cette hypothèse.
142
Deuxième partie ─ De l’observation des usages à celle des usagers
pouvaient indiquer trois outils en hiérarchisant leur choix. La modalité « autre » invitait les
internautes à spécifier des moteurs ou portails non sélectionnés. La formulation était celle-
ci : Quel outil de recherche vous paraît-il le plus rapide pour trouver des résultats
pertinents ? (Q6 à Q9)
Fréquence et compétence
La première question de ce groupe devait nous renseigner sur le temps moyen passé à
rechercher une information spécifique. Les internautes avaient le choix entre trois
intervalles de temps. Bien entendu, la notion de durée303 ne peut être que relative. Un temps
passé de 1 à 3 minutes indiquerait peut-être qu’une recherche est rapide. Une durée de 4 à 8
minutes pourrait être un temps de requête très fréquent. Et un laps de temps de plus de 8
minutes signalerait la patience de l’usager ou le manque d’expérience. Le temps passé peut
aussi indiquer l’importance du thème de recherche. Plus le sujet compte pour l’usager, plus
celui-ci est prêt à y consacrer du temps. Cette variable nous semblait complexe et difficile à
interpréter. En réalité, un internaute ne passe que quelques instants sur le site d’un moteur.
Il consulte les résultats, clique sur des liens et examine les pages. Ce processus itératif
prend du temps. Implicitement, il s’agit du temps de cette itération. La question était
formulée ainsi : Combien de temps passez-vous en moyenne pour trouver ce que vous
cherchez sur le Web ? (Q10)
Une question sur le laps de temps avant abandon suivait logiquement la précédente et
visait à connaître le degré de persévérance des internautes face aux difficultés rencontrées
lors d’une requête. Là encore, l’interprétation des résultats nous semblait complexe. Le
sexe du sondé était-il une variable déterminant la durée de la requête avant l’abandon de
l’internaute ? Il est probable que trop de facteurs entrent en ligne de compte pour notre
propos. Nous avons posé cette question ainsi : Combien de temps en moyenne vous faut-il
avant d’abandonner une recherche faute de résultats pertinents ? (Q11)
La question suivante avait pour objectif de connaître la fréquence d’usage des outils de
recherche. On proposait au répondant cinq modalités : très peu, plusieurs fois par semaine,
303
Quelques secondes d’attente semblent très longues sur Internet. Le haut débit habitue les usagers à la rapidité
des résultats. Chez Google, l’attente est de l’ordre d’une fraction de seconde. Une durée de quatre minutes peut
signifier très peu de temps d’attente mais des réitérations et la lecture des résultats.
143
Les agents intelligents sur Internet : enjeux économiques et sociétaux
une fois par jour, plusieurs fois par jour, très souvent. Il nous a été difficile de segmenter la
fréquence de consultation. D’autres modalités auraient pu être proposées telles que très peu,
assez souvent, souvent et très souvent. Néanmoins ces modalités-là nous paraissaient trop
subjectives, chacun donnant son propre sens au mot souvent. Nous avons donc opté pour
quelques indications quantitatives simples. Nous n’avions pas au préalable d’idée sur
d’éventuelles corrélations. Cette variable était exploratoire. La question se présentait ainsi :
Avec quelle fréquence consultez-vous un outil de recherche ? (Q12)
Une question portait sur l’expérience du sujet. Elle devait nous renseigner sur le nombre
d’années de pratique d’Internet. Il faut toutefois noter que cet hypermédia est très récent. Il
a démarré à proprement parler en France vers 1998. On ne pouvait s’attendre à une
expérience au-delà de cinq ou six ans. L’internaute avait le choix entre quatre modalités :
avant 2000, en 2000, en 2001, en 2002. Nous avons formulé cette question ainsi : Quand
avez-vous utilisé les outils de recherche pour la première fois ? (Q13)
Usages et stratégies
La première question de cette série devait déterminer si les internautes utilisent les
moteurs à des fins professionnelles, personnelles ou les deux à la fois. Trois modalités
étaient proposées. Lors de l’enquête préparatoire, nous n’avons proposé que les deux
premières. Certains répondants ont indiqué les deux à la fois. C’est pourquoi nous avons
rajouté la troisième. L’expression « la plupart du temps » invitait l’internaute à se
prononcer sur son usage habituel. La question était formulée ainsi : Vous servez-vous la
plupart du temps d’un moteur de recherche pour un usage personnel, professionnel ou les
deux à la fois ? (Q14)
La question suivante avait pour but d’identifier la stratégie préférée des internautes. Le
répondant avait le choix parmi les modalités suivantes : naviguer à partir des rubriques d’un
annuaire, faire une requête à partir d’un mot-clé, faire une requête à partir de deux mots-
clés, passer de site en site à l’aide d’un lien. Ces usages correspondaient à ceux le plus
souvent mentionnés dans les articles sur les modes d’exploration d’Internet. L’usager a la
possibilité de faire du surfing en passant par des sites déjà connus et conservés en signet.
Cette méthode était la première avant le développement et l’amélioration des moteurs de
recherche. Ensuite l’usager pouvait consulter un annuaire comme Yahoo et en explorer
l’arborescence, par rubriques et sous-rubriques. Cependant, ce procédé nous semblait très
144
Deuxième partie ─ De l’observation des usages à celle des usagers
laborieux. Néanmoins les bibliothécaires et les documentalistes avaient été formés à cette
méthode. La pratiquaient-ils encore ? Toutefois, tout laissait supposer que la majorité des
internautes avaient adopté la consultation par mots-clés. Nous ne savions pas si le choix
d’un mot-clé ou mots-clés était significatif. La question était proposée ainsi : Quelle
stratégie préférez-vous lorsque vous recherchez un site ? (Q15)
Pour les personnes ayant répondu OUI à la question précédente, trois questions portaient
sur le téléchargement d’un logiciel agent, la satisfaction que celui-ci procurait à l’usager et
l’achat de la version payante.
Avez-vous déjà téléchargé un agent intelligent ? (Q18) Une réponse binaire a été
proposée. Si oui, en êtes-vous satisfait ? (Q19). Le répondant avait le choix entre OUI,
NON et « difficile à dire ». Avez-vous acheté la version payante d’un agent intelligent
145
Les agents intelligents sur Internet : enjeux économiques et sociétaux
après une période d’essai de la version gratuite ? (Q20) Là encore, la modalité de réponse
était binaire.
Critères d’efficacité
Apprentissage de l’informatique
304
Cf. annexe 8.
305
[Link]
306
Cf. annexe 11.
146
Deuxième partie ─ De l’observation des usages à celle des usagers
représentait que 17,7%. Les autres modalités (stage et autre) étaient respectivement de
4,1% et 1,7%. En troisième réponse, la collaboration représentait 35 %, l’université 20,8%,
l’école 19%, et les autres modalités se situaient autour de 7%.
A première vue, l’apprentissage se fait en général par autoformation, ce qui peut sous-
entendre que l’enseignement en France ne se préoccupe pas de former les jeunes à
l’informatique pratique et à l’usage d’Internet. Cependant, en seconde réponse, l’école
représente 19,4% et l’université 13,6%, soit 33% en tout. On peut en conclure qu’un tiers
des personnes interrogées ont pu bénéficier tout de même d’une formation informatique
dans le cadre de leur scolarité.
L’apprentissage par les jeux vidéo représente 19,7% en seconde réponse. C’est par ce
biais que certains étudiants ont appris à utiliser l’ordinateur. Il y a une corrélation entre
cette modalité et le sexe des répondants. En premier choix, parmi les personnes qui ont opté
pour les yeux vidéo, la distribution est de 85,2% (hommes) et 14,8% (femmes). En second
choix 75,9% des hommes et seulement 24% des femmes ont sélectionné cette modalité et
la dépendance est très significative (chi2 = 22). On peut en conclure que les jeux vidéo sont
pratiqués plutôt par les garçons et exceptionnellement par les filles. Les hommes sont-ils
plus rapides grâce à cette pratique que les femmes en matière de recherche sur Internet ?
Nous avons tenté de vérifier cette corrélation sans résultats significatifs.
147
Les agents intelligents sur Internet : enjeux économiques et sociétaux
En première place vient Google (75%), suivi de Yahoo (16,4%) pour le premier choix de
l’outil de recherche. En seconde réponse, Yahoo vient en tête (56,5%) suivi de Google
(21%). Google et Yahoo307 ensemble représentent 91,4% des choix en première réponse et
76,5% en seconde. En troisième réponse, [Link] reçoit 40% des suffrages, mais
seulement 134 répondants sur 410 (soit 33 %) ont indiqué un troisième choix. Pour
l’instant, Google reste le moteur préféré des étudiants et des universitaires. La corrélation
entre Google en première réponse et Yahoo en seconde réponse est très forte (92,8%) tandis
que pour Yahoo en première réponse 71,9% des personnes interrogées se servent également
de Google en second choix (chi2 = 219,48).
D’autres moteurs de recherche ont été cités dans la rubrique « autre » : Altavista 14
réponses ; MSN, 4 ; Nomade 3, Lycos 3 ; Kartoo 3, Webcrawler 1, Exalead 1, Metacrawler
1. Ces moteurs et agents métamoteurs restent très peu connus. Nous constatons un
phénomène de concentration autour de Google et de Yahoo. MSN n’a pas encore émergé
comme concurrent éventuel des deux outils les plus utilisés.
Nous constatons sans ambiguïté le succès du tandem Google - Yahoo, et l’emploi très
limité des métamoteurs et des agents logiciels. Cependant, en seconde réponse, Copernic
reçoit 8,1% des réponses et 9% en troisième choix. Cet agent est le seul qui soit cité d’une
manière significative.
Fréquence et compétence
Concernant la question à trois modalités portant sur le temps passé, les répondants se
répartissent en trois groupes : 34,1% trouvent ce qu’ils cherchent en moins de 3 minutes,
46,8% entre 4 et 8 minutes, et seulement 19,1% passent plus de 8 minutes en moyenne. Si
on regroupe les deux premiers chiffres, on observe que la majorité (80,9%) trouve en moins
de huit minutes les sites ou pages recherchés.
Si l’on compare les réponses en fonction du sexe, la corrélation temps passé - sexe est
significative (chi2 = 7,84) : de 1 à 3 minutes (58,6% pour les hommes contre 41,4% pour
les femmes) ; de 4 à 8 minutes (42,2% pour les hommes contre 57,8% pour les femmes). A
plus de 8 minutes, les réponses sont presque identiques (49,6% et 50,4%).
307
C’est Google qui fournissait sa technologie à Yahoo en 2003 avant que ce dernier achète Overture. La phrase
« Search Technology provided by Google » s’affichait sur le site.
148
Deuxième partie ─ De l’observation des usages à celle des usagers
Les résultats de la question sur le laps de temps avant abandon sont les suivantes : entre
1 et 3 minutes, 4,6% ; de 4 à 8 minutes, 20,8% ; de 9 à 15 minutes, 37,2% ; de 15 à 20
minutes, 20,3% ; plus de 20 minutes, 17%. On peut constater que les réponses données
pour cette question sont très variables. Il ne nous est pas possible de fournir des
explications.
La majorité des personnes interrogées avait plus de trois ans d’expérience en matière
d’usages d’Internet. La répartition est la suivante : avant 2000, 69,2% ; en 2000 (soit deux
ans d’expérience), 20% : en 2001, 7,6% (une année) et en 2003 (l’année de l’enquête),
3,2%.
Usages et stratégies
La majorité des sondés (62,2%) utilise les moteurs à des fins personnelles et
professionnelles, 22% à titre personnel et 15,9% pour le travail.
149
Les agents intelligents sur Internet : enjeux économiques et sociétaux
22 9
naviguer à partir des rubriques d'un annuaire
faire une requête à partir d'un mot clé
faire une requête à partir de deux mots clés
113 passer de site en site à l'aide de liens
158
Cette question pose bien des problèmes d’interprétation. Nous savons qu’un seul mot-clé
produit un nombre considérable de liens. Il est très possible que les sondés n’aient pas
réfléchi à cette distinction.
Très peu de personnes (3,9%) passent par les rubriques d’un annuaire et seulement 8,3%
préfèrent le surfing. Ces réponses confirment la prédominance de la méthode de requête par
moteur et par mot-clé.
On constate que la moitié (49,5%) des personnes interrogées ouvre quatre liens ou plus.
L’autre moitié se répartit entre 23,4% ouvrant trois liens, 19,5%, deux liens, et 7,6%, un
lien avant de recommencer la requête. Très peu d’internautes se contentent d’un seul lien en
dehors des documentalistes (18%). Il faut signaler que quatre liens ou plus ouverts
impliquent un temps de lecture ou de parcours des documents avant de décider si ceux-ci
valent la peine d’être lus et s’ils correspondent au thème de la requête.
150
Deuxième partie ─ De l’observation des usages à celle des usagers
reçue. Les étudiants semblent être les moins informés. Cependant, en examinant les
résultats de près, on constate que les étudiants ayant un enseignement informatique
important dans leur cursus, notamment ceux de l’ESIEA et de l’ENST, connaissaient le
terme, 61% et 35% respectivement ; par contre, aucun étudiant en droit et seulement 9%
des Polytechniciens ont répondu affirmativement.
On a observé que 28% des personnes ayant répondu OUI à la question précédente se
déclarent avoir téléchargé un logiciel. Sur cette sous-population, 60% ont exprimé leur
satisfaction, 21,4% ont affirmé le contraire, et 17,9% ont répondu « difficile à dire ».
Seulement 2,8% ont acheté la version payante. Les internautes ne paraissent pas encore
prêts à payer pour un service qui reste gratuit. Cependant, dans notre enquête, il s’agit
d’internautes étudiants et enseignants. Notre enquête auprès des entreprises spécialisées
dans la collecte des données et la veille sur Internet devait apporter des précisions
supplémentaires sur la question.
Nous avons voulu savoir quelles catégories ont téléchargé un logiciel, probablement
Copernic, le seul agent mentionné d’une manière significative.
Ce sont plutôt les étudiants qui ont téléchargé un logiciel agent. Le taux de satisfaction
chez ces derniers (69%) est très élevé. Les deux enseignants - chercheurs répondant à cette
question n’en sont pas satisfaits. Un seul documentaliste a répondu positivement à cette
question.
Critères d’efficacité
151
Les agents intelligents sur Internet : enjeux économiques et sociétaux
expérience
avant 2000 40,1% 41,8% 18,1% 100%
en 2000 19,8% 64,2% 16,0% 100%
en 2001 16,1% 48,4% 35,5% 100%
en 2002 38,5% 46,2% 15,4% 100%
TOTAL 34,2% 46,9% 18,9% 100%
Tableau 3 : Temps de recherche et expérience du Web
fréquence-usage1 très peu plusieurs une fois par plusieurs très TOTAL
fois par jour fois par jour souvent
semaine
efficacité
sont de plus en plus efficaces et pertinents 50,0% 67,9% 58,5% 79,6% 59,1% 66,4%
ne donnent pas de bons résultats 5,8% 4,9% 7,7% 2,0% 13,6% 5,3%
exigent beaucoup d'effort de la part de l'usager 44,2% 27,2% 33,8% 18,4% 27,3% 28,3%
TOTAL 100% 100% 100% 100% 100% 100%
152
Deuxième partie ─ De l’observation des usages à celle des usagers
beaucoup d’efforts de la part de l’usager » accueille 27% et 27,6% pour Google et Yahoo
respectivement, et 36,8% et 37,5% pour Voila et Copernic. Google et Yahoo semblent être
les plus faciles à utiliser. On constate toutefois que l’usage des moteurs pose des problèmes
pour au moins un quart des utilisateurs.
Ces résultats nous ont permis de concentrer notre recherche sur les moteurs et leur
intégration de la technologie agent. Cependant, il a fallu poursuivre notre enquête en
interrogeant un autre milieu. Si les étudiants étaient nombreux à répondre, il a été plus
difficile de collecter des informations en milieu professionnel. Nous ne pouvons pas
proposer une analyse statistique scientifique en tenant compte d’un si faible échantillon.
Néanmoins, les réponses aux questions qualitatives nous ont fourni d’importants
renseignements sur les pratiques et les intérêts de certains usagers professionnels.
153
Les agents intelligents sur Internet : enjeux économiques et sociétaux
6 « Critères d’efficacité » ;
7 « Prévisions et problèmes » ;
La première question portait sur le type d’outil de recherche que les sujets avaient
coutume d’utiliser en première démarche lorsqu’ils cherchaient une information sur
Internet. Six modalités de réponses étaient proposées : moteur de recherche, métamoteur,
agent intelligent gratuit, agent intelligent acheté, agent intelligent dans un portail, autre.
Cette question était à réponse unique sur une échelle. La question était formulée ainsi :
Quel type d’outil de recherche utilisez-vous habituellement en premier choix, deuxième
choix et troisième choix? (Q1 à 3)
La seconde question avait pour objectif de collecter des données sur les outils dont les
sujets se servaient fréquemment et de connaître leurs motivations. La question était ouverte
et la passation en-ligne permettait au sujet de développer sa réponse car l’espace destiné à
recevoir l’information était facilement modulable : Quel outil de recherche utilisez-vous le
plus souvent ? (citez-le) Pourquoi ? (Q4)
Comme pour la première enquête, les répondants pouvaient désigner l’outil le plus
rapide fournissant les résultats les plus pertinents en premier, second et troisième choix.
Neuf modalités étaient proposées : [Link], Yahoo, Google, Copernic, Excite, Altavista,
Lycos, Kartoo et autre. A la différence du premier questionnaire, on a introduit Altavista.
Cette question était à réponse unique sur une échelle. Un espace de dialogue permettait à
154
Deuxième partie ─ De l’observation des usages à celle des usagers
l’usager ayant répondu « autre » de préciser son choix : Quel outil de recherche vous paraît
le plus rapide pour fournir des résultats pertinents ? (Q5 à Q8)
Le groupe de questions suivantes avait pour but de connaître l’attitude du sujet sur la
gratuité et l’éventuel paiement des moteurs de recherche. La modalité des réponses était
binaire. Nous avons établi une distinction entre les moteurs généralistes et ceux destinés
aux professionnels et spécialisés dans un secteur économique.
La question suivante devait mesurer le degré de satisfaction entraînée par l’achat d’un
logiciel agent. Le sujet pouvait choisir entre « pas du tout », « un peu », « assez et
beaucoup », « énormément ». Cette question était à réponse unique sur une échelle : SI
155
Les agents intelligents sur Internet : enjeux économiques et sociétaux
OUI, pensez-vous que cette version apporte des améliorations par rapport à la version
gratuite qui peuvent justifier l’achat? (Q15)
Avec une question ouverte, nous voulions connaître les motivations du sujet concernant
le téléchargement d’un logiciel dont la version d’essai est offerte gratuitement. Trois
modalités étaient proposées : « pour tester l’efficacité du logiciel », « pour vous former à
l’utilisation du logiciel », « pour déterminer votre choix d’achat ». SI OUI, pourquoi
l’avez-vous téléchargé en version gratuite? (Q16 à 19)
Le sujet pouvait classer chaque motivation en premier choix, deuxième ou troisième. Les
phrases proposées étaient les suivantes : « Pour tester l'efficacité du logiciel » ; « Pour vous
former à l'utilisation du logiciel » ; « Pour déterminer votre choix d'achat » ; « Pour
comparer plusieurs logiciels avant d'acheter » ; « Autres motivations ». Une boîte de
dialogue permettait au répondant de préciser d’autres motivations (Q20).
Une question ouverte avait pour objectif de connaître le sens que les répondants
donnaient au terme « agent intelligent ». La question était libellée ainsi : Selon vous,
qu’est-ce qu’un agent intelligent? (Q21)
Une seconde question ouverte devait nous permettre de connaître les noms des logiciels
utilisés et les motivations des usagers : Quels agents intelligents avez-vous téléchargés ?
Pourquoi ? (Q22)
Il nous intéressait de savoir comment la décision d’acheter un logiciel était prise au sein
de l’entreprise du sujet. Quatre modalités étaient proposées : « chacun est libre de choisir
ses outils » ; « la direction du service seule décide » ; « la décision est prise après tests et
concertation avec les usagers » ; « autre ». Un espace de dialogue était laissé pour la
réponse « autre » : Quels facteurs déterminent le choix d’un logiciel de recherche dans
votre service ? (Q23). Si vous avez répondu « autre », lequel ? (Q24)
156
Deuxième partie ─ De l’observation des usages à celle des usagers
Nous avons proposé deux questions ouvertes afin de connaître les usages réguliers et les
usages exceptionnels des outils : Quels types d’usages réguliers avez-vous des outils de
recherche ? (Q25) La question sur les usages exceptionnels était exploratoire, comme la
précédente. Nous partions du principe que chacun peut inventer ses propres usages : Quels
types d’usages exceptionnels avez-vous des outils de recherche ? (Q 26)
Une question fermée (binaire) et une question ouverte devaient nous renseigner sur les
usages effectifs des sujets dans le détail : Hier, par exemple, avez-vous utilisé un outil de
recherche ? (Q 27), SI OUI, pourquoi ? (Q28)
Une quatrième question devait nous éclairer sur l’usage des agents d’alerte. Cinq
modalités étaient proposées : « jamais » ; « presque jamais » ; « parfois » ; « souvent » ;
« très souvent ». La question était proposée ainsi : Utilisez-vous la fonction alerte des
agents intelligents ? (Q29)
Ce groupe de questions sur le temps passé lors d’une requête reproduisait celles du
premier questionnaire. Il n’est pas nécessaire de les présenter de nouveau.
Combien de temps vous faut-il, en moyenne, pour trouver ce que vous cherchez sur le
Web ? (Q30) Au bout de combien de temps, en moyenne, abandonnez-vous une recherche
faute de résultats pertinents ? (Q31) Avec quelle fréquence consultez-vous un outil de
recherche ? (Q32)
Nous avons cependant ajouté une question sur l’importance de la veille sur Internet pour
la population étudiée. Cinq modalités étaient proposées : moins de 10% ; entre 10% et
20% ; entre 20% et 30% ; entre 30% et 50%, plus de 50%. La question était formulée ainsi :
Quelle partie de votre temps consacrez-vous à la veille sur Internet ? (Q33)
Une dernière question avait pour but de mesurer l’importance d’Internet en tant que
source d’information. Trois modalités étaient proposées : faible, moyenne, forte : Selon
vous, Internet est une source d’informations économiques et stratégiques...(Q34)
Comme pour les étudiants et les universitaires, nous avons voulu établir les modes de
formation. Cette fois-ci nous avons orienté la question différemment en remplaçant
157
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Critères d’efficacité
La question était formulée ainsi : Parmi les critères d’efficacité énumérés ci-dessous,
lesquels déterminent le choix de votre outil de veille sur Internet ? (Q37 à 39). Une seconde
question, ouverte cette fois-ci, permettait au sujet de s’exprimer sur d’autres possibles
critères : Quels autres critères considérez-vous comme indispensables dans un logiciel de
recherche ? (Q40)
Prévisions et problèmes
La première question cherchait à profiler les attitudes concernant les capacités des agents
et les perspectives d’ordre social :
Selon vous, les agents intelligents parviendront-ils bientôt à répondre à une question en
langage naturel? (Q41) ; interagir avec l'usager comme le ferait un humain? (Q42) ; extraire
des informations pertinentes des documents? (Q43) ; remplacer l'humain dans sa fonction
de veille? (Q44) ; répondre à une question orale? (Q45)
Le sujet pouvait répondre par : « très peu probable » ; « peu probable » ; « probable » ;
« assez probable » ; « très probable ».
158
Deuxième partie ─ De l’observation des usages à celle des usagers
Ce second groupe de questions avait pour but de connaître les problèmes éventuels liés à
l’usage des outils de recherche : Dans votre entreprise, les outils ont-ils posé des
problèmes : de perte de temps? (Q46) ; de manque de validité de résultats? (Q47) ; de
manque de labellisation? (Q48) ; d'oubli de certains sites essentiels? (Q49) ;
d'incompatibilité avec un firewall? (Q50) ; d'intrusion de personnes non autorisées dans le
réseau de votre entreprise? (Q51) ; et autres (Q52). Un espace de réponse permettait de
préciser cette dernière modalité. Une échelle de fréquence était proposée : jamais ;
rarement ; parfois ; souvent ; très souvent.
Ce dernier groupe de questions était destiné à collecter des informations sur l’âge, le
sexe et la fonction du répondant ainsi que la taille de l’entreprise. Les résultats ont été
donnés en début de chapitre. Le questionnaire est présenté en annexe308.
Le moteur de recherche constitue le premier choix des professionnels, 80% contre 87,7%
chez les étudiants et universitaires. Peu de répondants utilisent un métamoteur ou un agent
intelligent soit gratuit soit acheté en premier choix. Chaque type recueillait 6, 7%
seulement. En second choix, les répondants préfèrent les métamoteurs à 69,9%. L’agent
intelligent gratuit (31,6%) venait en tête en troisième choix. On constate aisément le succès
auprès des deux populations des moteurs de recherche.
Une question ouverte portait sur l’outil le plus utilisé et les raisons du choix. Pour
étudier les résultats, nous considérons l’ensemble des réponses comme l’unité de contexte.
308
Cf. annexe 11.
159
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Nous avons choisi comme unité d’enregistrement le terme lemmatisé : à titre d’exemple,
« simple », « simplicité » sont mis dans la catégorie « simple ».
Cette question a fourni des noms de moteurs souvent utilisés et d’amples commentaires.
Nous relevons d’abord le nombre de citations concernant un outil de recherche. Puis nous
proposons une synthèse de ces commentaires. Examinons Google, cité dix-sept fois. Les
termes utilisés pour qualifier ce moteur sont présentés avec leur fréquence. Le terme
« simple » est employé cinq fois, efficace, une fois, performant (trois), pertinent (deux).
Des informations plus précises sur les capacités du moteur sont fournies. Certains sujets se
servent d’adjectifs superlatifs (« de loin le plus performant ») pour caractériser ce moteur :
il est « très pertinent » grâce aux catégories, « très pratique » grâce aux options, « rapide ».
Les fonctionnalités avancées sont mentionnées. Le moteur possède certains atouts, par
exemple l’extrême rapidité à fournir les résultats. La fonction cache conserve les pages qui
n’existent plus sur le Web.
Les autres outils mentionnés sont Copernic (six fois), AltaVista (deux fois) « qui permet
une recherche des expressions dans les titres des documents », Alltheweb (une fois) et
Yahoo (deux fois) en tant qu’annuaire, bien que cet outil fonctionne en moteur de recherche
grâce à la technologie de Google. Kartoo (quatre fois), Alltheweb, Bullseye, Exalead, et
Arisem sont cités une seule fois.
160
Deuxième partie ─ De l’observation des usages à celle des usagers
Deux stratégies sont décrites : pour une question ponctuelle, Google ou un autre moteur
est utilisé pour « définir mots-clés et stratégie de recherche » ; et afin d’identifier « une
panoplie », le sujet utilise un annuaire comme Yahoo ou un métamoteur pour être
« exhaustif ».
Une idée importante se dégage : les moteurs de recherche sont incontournables. Les
outils de recherche sont toujours « indexés sur un moteur de recherche classique »,
notamment Google. L’analyse de ces commentaires met clairement en évidence la place de
premier choix de ce dernier dans les usages de veille sur Internet. Ses fonctionnalités et sa
mémoire le placent en première position. L’analyse de cette réponse en même temps que le
dépouillement d’autres résultats nous ont orienté vers l’hypothèse selon laquelle les agents
n’ont pas eu beaucoup de succès et que les moteurs ont incorporé la technologie agent. Les
commentaires sur la barre d’outil et la programmation en api nous fournissaient des pistes
de recherche.
Par rapport à la première enquête, nous avons constaté que les veilleurs utilisent d’abord
un moteur, ensuite un agent logiciel ou un métamoteur pour élargir la recherche tandis que
les universitaires et les étudiants se servent d’un moteur puis éventuellement d’un portail.
Seul Copernic est connu par ce groupe. Par contre, les professionnels citent des logiciels
spécialisés peu connus du public universitaire et estudiantin.
161
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Il est évident que la quasi-totalité des professionnels (96%) n’accepte pas de rétribuer un
service encore gratuit et fondamental. Car on ne peut pas trouver des ressources sur Internet
sans les moteurs, les annuaires ou les portails. La question avait pour objectif de souligner
le problème posé par la gratuité avant d’introduire l’idée d’un paiement pour des moteurs
spécialisés. Pour l’accès à des moteurs spécialisés, l’échantillon se divise en deux groupes
(56% pour, 44% contre).
Les résultats et les performances des agents téléchargeables sur le Web paraissent
extrêmement limitées, et les usagers pour la plupart ne sont pas très enthousiastes, 60%
contre 40% de satisfaits : « difficile à dire » et NON accueillent 20% chacune. La réponse
« difficile à dire » peut impliquer que certains agents logiciels sont plus performants que
d’autres. Un répondant a signalé le fait suivant : « J’en ai téléchargé plusieurs et certains
intéressants, d’autres non ! »
On constate que 40% des sujets ont acheté la version payante, après avoir testé la
gratuite. Il nous importe de savoir si l’achat en valait la peine, si la version achetée est plus
performante que celle offerte. La moitié des répondants considéraient que l’achat en valait
la peine tandis que 25% estimaient le contraire et 25% étaient indécis. On peut se demander
si ces produits sont réellement efficaces par rapport aux moteurs.
162
Deuxième partie ─ De l’observation des usages à celle des usagers
Une question ouverte invitait les sujets à définir le terme « agent intelligent » et à fournir
quelques commentaires. Il nous était possible d’identifier certaines attitudes à l’égard de
cette technologie. L’ensemble des réponses constitue l’unité de contexte. L’unité
d’enregistrement est la lexie (segment ayant un sens, mot, groupe de mots, phrase). Nous
avons catégorisé ce corpus de la manière suivante. Certaines réponses permettaient
d’identifier le type d’agent auquel le sujet pensait (type d’agent : métamoteur, agent
d’alerte, agent de traitement). Une seconde catégorisation facilitait l’insertion des réponses
dans une dimension « attributs d’un agent » (autonomie, communication, automatisation).
L’autonomie peut comporter deux sous-catégories comme « remplacer l’usager » ou « prise
de décision ». Nous proposons deux catégories supplémentaires, « attitude critique » et
« référence à l’intelligence artificielle ».
Nous présentons d’abord la catégorie « type d’agent ». Commençons par les définitions
proches de celle du métamoteur, relevées dans les différents questionnaires. Deux citations
font mention implicitement à ce type d’outil : « Recherche automatique…transmettre en
une seule demande une requête sur de multiples supports » et « logiciel qui contacte un
nombre important de sites pour présenter les résultats de façon pertinente. »
L’agent d’alerte, important pour la veille, reçoit cinq citations : « Outil de veille,
surveillance, mise à jour automatique, rapport sur les changements » ; « réaliser des veilles
sur certains sujets », ou « vérification de site » ; « en effectuant de la veille sur certains
sites et en détectant les éventuels changements et le cas échéant, en m'avertissant. »
Les attributs des agents intelligents sont mentionnés, ce qui dénote certaines
connaissances théoriques de la part des personnes interrogées.
L’autonomie est caractérisée par la prise de décision : « moteur de recherche doté d'une
certaine autonomie et capacité de faire des choix », « réaliser des buts spécifiques. » Un
agent peut remplacer l’usager : « outil d'aide logiciel actif, capacité à mener en lieu et
place de l'utilisateur des actions de recherche », « accélérer les recherches sur le web en
exécutant un certain nombre de tâches simples à ma place. » D’autres citations mettent en
évidence l’importance de l’autonomie : « ils peuvent interroger simultanément les outils de
recherche à ma place », « une certaine autonomie », « répondre de manière autonome aux
besoins informationnels d’une personne », « fonctionne de façon indépendante. »
Les agents communiquent et coopèrent avec l’usager : ils peuvent « assister le veilleur »
et possèdent « la capacité à assister le veilleur dans les différentes phases du cycle de
veille, aussi bien dans la collecte que dans l'exploitation des infos. » Ils sont « capables de
transmettre l'information. » Ils communiquent par ailleurs « avec le réseau », « collaborant
par échange de messages », ils « sillonnent un réseau…exploitation » et possèdent « des
règles, capables de transmettre l’information. »
164
Deuxième partie ─ De l’observation des usages à celle des usagers
d'information prédéfinie. » « Un agent intelligent est un logiciel qui une fois paramétré,
effectue une ou plusieurs tâches pour l'utilisateur, vérification de site, recherche
d'informations. »
Ces définitions correspondent à celles que nous avons présentées dans notre première
partie. Il s’agit d’outils de collecte d’information ou de surveillance de sites Web, ayant des
capacités de traitement et d’analyse des données. Les veilleurs semblent être à la recherche
de produits ayant les caractéristiques définies ci-dessus.
Certains professionnels, cependant, apportent des critiques. Pour un veilleur, les agents
« ne facilitent pas la tâche », pour une autre, ils n’ont d’intelligent que le nom : « Chez
*******, l’agent intelligent c’est l’homme et non la machine. Nous ne parlons jamais
d’agent intelligent. Ils n’ont d’intelligent que le nom. C’est bien ce qui a fait s’écrouler le
marché de la veille et de la recherche. On a fait croire aux gens qu’ils pouvaient se passer
de réfléchir et qu’un robot ferait tout pour eux. Grave erreur ! »
La critique porte sur les affirmations des éditeurs de logiciels et sur les conséquences
économiques relatives à une profession. Une position déontologique se dégage : l’homme
doit être au centre de la veille. Le processus ne peut pas être totalement automatisé. Le
métier de veilleur relève de l’expertise humaine. Certaines citations suggèrent que les
logiciels ne possèdent qu’« une once d'intelligence humaine. » Pour l’instant, les logiciels
testés par les enquêtés ne sont pas au point : « Mon opinion est qu'aucun logiciel n'est
intelligent. Tout au plus, certains sont plus robustes que d'autres vis-à-vis de changements
imprévus de leur environnement. » « Un agent qui est intelligent doit pouvoir prendre des
décisions à notre place. Ce n'est pas le cas. »
165
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Pour un professionnel un agent est « une invention marketing pour désigner des logiciels
à qui l'on délègue une partie de ses pouvoirs, et donc une partie de sa responsabilité. Il est
clair qu'il vaut mieux faire croire qu'un tel logiciel est intelligent, surtout si on lui confie sa
carte de crédit ou son portefeuille d'actions (ce qui est heureusement rarement le cas pour
ce qui est des agents "intelligents"à $30) ». Cependant la catégorie de logiciels concernée
par ces remarques est celle des agents à bas prix.
Un veilleur expose aussi le problème du prix. L’usager distingue les agents du type
métamoteurs et les portails de veille : « J’ajouterais un petit commentaire relatif aux
outils : actuellement, les outils peuvent être classés en deux catégories : "chers" et "pas
chers". Les chers sont du type Arisem ou Knowing, qui va jusqu’à la mise en place de
communauté de pratiques et qui proposent un traitement assez complet de la chaîne
d’information mais nécessitent un investissement humain et financier lourd. Les "pas
chers" du type Bullseys (100 euros) ou gratuits qui n’offrent que quelques fonctionnalités. »
L’ensemble de ces commentaires met en évidence l’intérêt des veilleurs pour les
logiciels agents. Cependant il y a un fossé entre ce qu’ils espèrent trouver sur le marché et
la réalité technique, à moins d’y mettre le prix.
La question 22 portait sur les noms des agents téléchargés et les raisons du choix. Nous
les catégorisons par nom d’agent et par autres agents s’il y a très peu de commentaires à
leur propos. L’unité d’enregistrement est la lexie.
Copernic semble le plus utilisé et le plus connu : il est cité 15 fois. Un professionnel
s’interroge sur la définition d’agent : est-ce que Copernic peut être considéré comme un
agent ? Un second sujet met l’accent sur le prix et l’efficacité. « Nous avons acheté les
versions payantes de Copernic car il est le moins cher et le plus efficace ». Il motive son
choix en précision l’usage : « Pour participer à mettre en place une cellule de veille dans
mon entreprise. Recherches d’infos quotidiennes, surveillance de pages web… » Un autre
veilleur évoque la gratuité : « Copernic (et StrategicFinder) pour leur version gratuite ».
166
Deuxième partie ─ De l’observation des usages à celle des usagers
Une autre motivation consiste à tester le logiciel. « Pour les tester et savoir s'ils peuvent
répondre à mes besoins, nous avons acheté les versions payantes de Copernic et
Bullseye ».
Un répondant présente les divers usages qu’il fait de ce logiciel : « Copernic, le dernier
en date : 23 sources de recherche, automatisation du lancement des requêtes, surveillance
continuelle de l'actualisation de pages et sites, prise en compte automatique de sources
jugées pertinentes de classement (de résultats de recherche), analyses sémantique et
statistique de contenu, organisation spatiale et cartographie de résultats de recherche,
implémentation de thesaurii, sources de cartes ». Un autre sujet y émet toutefois quelques
réserves : « Copernic Agent car il est très pratique, bien que je trouve que l'ancienne
version était plus complète. » Un troisième va plus loin dans ses critiques : « Copernic -
méta moteur qui fonctionne bien (pas toujours en fait), très connu »
En ce qui concerne StrategicFinder, ne figurent que deux commentaires bien qu’il soit
cité sept fois. Un sujet évoque la possibilité d’ajouter des modules et une autre la gratuité
du produit : « Strategic Finder pour la possibilité d'ajouter des plug-ins thématiques et
pour son côté pratique » et « StrategicFinder : pour sa version gratuite. »
Webseeker n’est cité qu’une fois. L’usager le considère peu efficace. Il est motivé par la
gratuité et la possibilité de tester et de comparer : « gratuits, mais donc bridés », « pour
avoir un aperçu du marché et comparer. »
Website Watcher, aspirateur de site, n’est cité qu’une seule fois. « WebSite Watcher car
j'avais besoin d'un agent d'alerte pour surveiller plusieurs sites. Opération difficilement
réalisable sans aide ! » KBcrawl, agent métamoteur, est gratuit mais pas très performant :
« gratuits, mais donc bridés », également cité une seule fois.
Les autres logiciels ne font pas l’objet de commentaires. Un groupe cependant est cité et
met en évidence les difficultés liées à l’usage et à l’appropriation. Memoweb (2), BullsEye
(3), Pertimm, StrategicFinder, C4U, Website Watcher, VigiPro. Human Links,
167
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Nous constatons que les veilleurs citent trois types d’agent : le logiciel métamoteur,
l’agent de veille notamment, KBcrawl, C4U, Website Watcher, VigiPro (intégrant la
technologie Copernic) et l’aspirateur de sites (Memoweb). Le portail de veille apparaît une
seule fois (WatchPortal4U de la firme Arisem). Un seul moteur de recherche interne,
Pertimm est cité. Copernic est le plus cité (15 fois). Ainsi cet agent a fait l’objet d’une
analyse approfondie dans notre première partie.
A partir de ces observations, nous avons pu constater les usages principaux des veilleurs,
notamment la surveillance de l’évolution des sites, éventuellement l’aspiration de certains
afin d’en effectuer une analyse hors ligne et la recherche des informations nouvelles. Ils
font appel aux métamoteurs pour élargir le champ de la requête.
Le choix de logiciels est laissé à l’initiative de l’usager, à 51,5%, contre 24,3% pour la
réponse 3 (concertation et tests). Seuls 6,1% ont affirmé que la direction décidait, 18,2%
répondant « autre ». Cependant, il faut noter que les répondants ne citaient que les produits
de bas prix, ce qui expliquerait sans doute la grande liberté de décision.
La question ouverte sur les usages réguliers nous permettait de dresser une typologie des
activités de veille et de recherche informationnelle. Nous avons construit deux catégories :
recherche et veille. Nous les avons subdivisés en plusieurs sous-catégories.
La recherche sur les adresses des sites est mentionnée une fois. La recherche
exploratoire « sur un sujet donné, sur les personnes, ou sur les forums », « à propos d’une
marque » est également citée.
168
Deuxième partie ─ De l’observation des usages à celle des usagers
phénomènes émergents « pour la veille voir ce qui émerge ou bien nécessité d'identification
des sources ».
La question sur les usagers exceptionnels nous a livré peu d’informations. Certains
commentaires indiquaient que les sujets n’avaient que des usages réguliers. Quatre
personnes ont signalé qu’elles n’avaient aucun usage exceptionnel. Cependant, une
référence à l’usage d’un annuaire « recherche sur des annuaires type Yahoo », quelques
exemples de veille « surveillance de soft pirates », « sur une personne (avoir une idée du
parcours d'une personne, de son tempérament (newsgroups) », auraient pu être classés dans
la question précédente.
Nous avons créé une catégorie « autres types d’usages ». Trois sujets ont évoqué la
correction d'orthographe, la vérification du sens des mots (« recherche de l'orthographe des
mots quand je n'ai pas le temps de consulter un dictionnaire ») et la correction
grammaticale.
La question, « hier, par exemple, avez-vous utilisé un outil de recherche ?», avait comme
ambition de permettre aux sujets d’évoquer avec précision une activité récente. La plupart
des répondants (92,3%) ont affirmé avoir pratiqué une activité de recherche la veille. Leurs
réponses nous livrent peu d’informations nouvelles mais confirment les types de veille
explicites ou implicites traités plus haut. Toutefois deux nouveautés émergent : la recherche
de signaux faibles (anticiper les tendances) et la mise en place d’un profil de surveillance.
Nous avons constaté que la moitié des répondants (50%) n’utilisaient jamais les agents
de surveillance automatisés, presque jamais (11,5%), parfois (11,5%), souvent 3,8%, très
169
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Les veilleurs en majorité mettent en moyenne moins de trois minutes pour trouver ce
qu’ils cherchent. Nous pouvons en déduire que leur expertise et leur choix d’outils leur
permettent de travailler très rapidement. Toutefois 42,3% passent entre 4 et 8 minutes, et
seulement 7,7% dépassent les 8 minutes. Quelques commentaires fournissent des
précisions : « Tout dépend de la recherche ! », et « ça dépend de la question, et en fonction,
il existe plusieurs stratégies (moteurs, listes de discussions , métamoteurs …) et je
considère que 4-8 minutes correspond à la moyenne ».
Concernant la durée de la requête avant abandon, les résultats sont peu significatifs : de
4 à 8 minutes (25,9%), de 9 à 15 minutes (33,3%), de 15 à 20 minutes (22,2%), et plus de
20 minutes (18,5%). Un commentaire, cependant, permet d’éclairer le problème : « 30
minutes pour être précis, c’est le temps nécessaire qu’il me faut pour véritablement tourner
en rond, c’est à dire revenir sur ce que j’ai déjà vu. »
Pour ce qui est de la fréquence d’usage, nous avons constaté que 80% environ se
servaient des outils de recherche soit très souvent (30,6%), soit plusieurs fois par jour
(50%), une fois par jour (3,8%) et plusieurs fois par semaine (15,4%). Ces résultats
correspondent aux activités escomptées de la population étudiée.
Le temps passé sur Internet était le suivant : moins 10% du temps (20%), entre 10% et
20% du temps (40%), entre 20% et 30% (18%), entre 30% et 50% (8%) et plus de 50%
(16%). La majorité des répondants (60%) passait moins de 20% de leur temps sur Internet.
La question suivante devait déterminer l’importance d’Internet comme source
d’informations. La grande majorité (80%) présentait Internet comme une source forte
d’information économique et stratégique contre 36% (moyenne) et seulement 4% (faible).
Cela correspondait également à nos attentes étant donné la population choisie.
170
Deuxième partie ─ De l’observation des usages à celle des usagers
Critères d’efficacité
L’un des répondants évoque la possibilité d’intégrer un agent dans le système de gestion
de l’information. Pour l’instant, selon lui, il est difficile de travailler en même temps avec
plusieurs outils. On souligne l’importance de pouvoir connaître le code d’un outil afin de
mieux le paramétrer, ce qui en augmente l’efficience. Les métadonnées d’une page Web
devraient comporter des renseignements sur l’auteur, la date de mise en route ou de la
dernière modification ou mise à jour, ce qui n’est pas toujours le cas. De même que certains
sites ne sont pas labellisés clairement. Un professionnel interrogé regrette que les outils ne
soient pas conçus spécifiquement pour la veille bien que certains logiciels comportent des
modules sectoriels309. L’organisation des résultats pose également de nombreux
problèmes : stockage, catégorisation, récupération, analyse du contenu, analyse
relationnelle. Ce sont surtout les systèmes très sophistiqués du type Autonomy ou Arisem
qui proposent ce type de solution.
309
StrategicFinder.
171
Les agents intelligents sur Internet : enjeux économiques et sociétaux
pratique pas cette politique, ce qui pourrait expliquer en partie sa popularité parmi les
professionnels.
Prévisions et problèmes
Ce groupe de questions devait nous renseigner sur les limites de la technologie agent.
Les agents parviendront-ils à répondre à une question en langage naturel ? La question
impliquait la possibilité de formuler une requête avec une structure interrogative et non pas
en mots-clés. La majorité (60%) pense que ce sera possible : très probable (16%), assez
probable (12%) et probable (32%.) Au contraire 20% des répondants se prononçaient pour
peu probable et très peu probable.
Sur la possibilité du système de répondre à une question orale, 60,8% des répondants
considéraient que ce sera peu (30,4%) ou très peu (30,4%) probable contre probable
(26,1%), assez probable (8,7%) et très probable (4,3%).
172
Deuxième partie ─ De l’observation des usages à celle des usagers
problèmes pour les veilleurs. Seulement onze personnes ont répondu à la question sur le
manque de labellisation car ce terme n’était pas très bien compris. L’incompatibilité avec
un firewall fournissait les résultats suivants : jamais (13,3%), rarement (20,0%), parfois
(33,3%), souvent (26,7%), très souvent (6,7%). La majorité (76,7%) reconnaissait
l’éventualité d’un conflit entre les outils de recherche et le système de protection du réseau.
Le problème d’intrusion dans le système informatique ne semblait pas relever des outils de
recherche : jamais (6,7%), rarement (58,3%), parfois (16,7%), souvent (8,3%).
Synthèse
Le bilan de ces deux enquêtes ayant été établi, il est maintenant nécessaire d’en faire une
synthèse. Pour la population étudiée, l’apprentissage se fait en général par autoformation.
Cependant, certaines personnes ont eu une initiation à l’informatique dans le cadre du
système scolaire, notamment les étudiants des Grandes Écoles. La majorité des internautes
apprennent à utiliser un ordinateur par eux-mêmes car l’usage est devenu assez facile et
convivial grâce à l’interface graphique. Au demeurant, lorsque l’internaute est confronté à
un problème, il fait appel à un ami ou à une autre personne. Dans certaines Grandes Écoles,
un site d’aide existe. Ainsi les étudiants en difficulté laissent un message et reçoivent des
conseils d’un spécialiste.
Google et Yahoo ensemble représentent 92% des choix en première réponse et 75% en
seconde. La majorité (62%) du premier groupe utilise les moteurs à des fins personnelles et
professionnelles. La majorité (77,5%) des répondants du milieu universitaire ne connaissait
pas le terme d’agent intelligent. Seulement 7% des personnes interrogées avaient téléchargé
un logiciel du type agent intelligent. Les professionnels s’intéressent davantage à cette
technologie, 71% d’entre eux ont téléchargé un produit et 40% d’entre eux ont acheté ce
type de logiciel. Ces usagers se servent d’un moteur dans un premier temps, puis d’un
173
Les agents intelligents sur Internet : enjeux économiques et sociétaux
métamoteur pour élargir une requête vers des sources non indexées par Google. Ils utilisent
un agent logiciel pour suivre l’évolution d’un site ou d’un thème et peuvent fournir des
définitions probantes car ils ont probablement lu des articles ou des ouvrages sur le sujet.
Il est évident que le moteur de recherche représente l’interface indispensable pour tout
usager d’Internet. On a observé également que la gratuité joue un rôle prépondérant car peu
d’internautes achètent des logiciels agents. Les utilisateurs, en effet, obtiennent des résultats
satisfaisants grâce aux dispositifs informatiques mis à leur disposition. Google est considéré
comme le plus efficace, le plus pertinent et le plus rapide.
Nous avons proposé une interprétation très dépouillée de ces résultats pour éviter d’y
projeter notre propre perception de l’objet de cette thèse. Un certain nombre de questions
reste à examiner, portant par exemple sur le téléchargement des barres d’outils.
174
Deuxième partie ─ De l’observation des usages à celle des usagers
ARTIFICIELLE
Les deux enquêtes précédentes n’avaient pas pour objectif de révéler la manière dont les
usagers se représentent le terme « agent intelligent », ni la façon dont ils interprétaient
l’adjectif « intelligent » qualifiant un objet (machine, un programme). Les théories de la
sociologie des usages mettent en évidence l’importance du rôle joué par les représentations
des usagers concernant les machines à communiquer. Aussi avons-nous entrepris d’étudier
ce problème afin de compléter notre interprétation de l’usage des outils de recherche.
Nous avons élaboré le questionnaire à partir d’une hypothèse : les usagers peuvent, dans
certains cas, qualifier certains objets d’intelligents. Néanmoins, nous ne savions pas dans
quelle mesure certaines entités pouvaient être considérées comme telles. S’agit-il, au
demeurant, de l’intelligence de l’objet en soi ou de celle de son inventeur ? Nous avons
donc dressé la liste suivante : agent, machine, outil, instrument, moteur et moteur de
recherche.
175
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Présentation du questionnaire
La première partie du questionnaire est intitulée « associations verbales ». Nous avons
présenté aux sujets une grille à deux colonnes. A gauche les termes agent, machine, outil,
instrument, moteur et moteur de recherche, à droite nous avons ajouté à chaque mot
l’adjectif intelligent : agent intelligent, machine intelligente, outil intelligent, etc. L’enquêté
devait écrire les quatre mots qui lui venaient à l’esprit en lisant ces termes. Cette technique
relève de la sémiométrie ouverte (ou spontanée) développée par Ludovic LEBART, Marie
PIRON et Jean-François STEINER310 .
Afin d’analyser les résultats, nous avons choisi six catégories de réponses pour chaque
couple mot / intelligent : humain, machine, institution, abstraction, autre et aucune réponse.
La catégorie « humain » comprenait tout ce qui se référait à l’homme, y compris le cerveau.
Par « machine » on englobait les logiciels et les systèmes d’information. La catégorie
« institution » comprenait les entités telles que la police, la CIA ou le FBI. Par
« abstraction », on désignait les noms (ou les adjectifs) comme la vitesse, la pertinence, etc.
Des termes peu fréquents entraient dans la catégorie « autre ». Nous avons également pensé
que l’absence de réponses était très significative. Après un tri des résultats, nous avons créé
une catégorie supplémentaire, les TIC. Nous avons choisi comme unité d’enregistrement le
mot et comme unité de contexte l’ensemble des réponses par couple mot / intelligent.
Nous avons voulu savoir si les sujets accordaient à des animaux les capacités qu’ils
avaient explicitées en définissant le concept d’intelligence. Par la suite il nous était possible
de comparer ces résultats avec leurs réponses sur les objets intelligents.
310
Ludovic LEBART, Marie PIRON et Jean-François STEINER, La Sémiométie, Essai de statistique
structurale, Paris, Dunod, 2003.
176
Deuxième partie ─ De l’observation des usages à celle des usagers
Les interactions avec les machines et les programmes dans les années à venir
impliqueraient…
Pour la première question, nous avons construit une catégorisation à partir des réponses
fournies : danger, remplacer l’homme, extinction de l’homme, (la machine) esclave de
l’homme, utopie ou progrès, autre réponse.
Une dernière question portait sur l’art et était formulée ainsi : Quels films ou romans
vous viennent à l’esprit après avoir rempli ce questionnaire ? L’objectif était de déterminer
l’impact culturel sur la manière dont les usagers percevaient les objets intelligents. Force
est de constater qu’on ne peut pas établir une relation causale entre l’impact du cinéma et la
crainte des robots. Cette question ne peut que fournir quelques éléments d’interprétation.
Pour finir, nous avons relevé des informations sur le sujet : son âge, son sexe, ses études
et ses préférences en matière de cinéma et de littérature. Les enquêtés devaient suivre
l’ordre du questionnaire, c’est-à-dire qu’ils ne devaient pas le lire dans son ensemble au
préalable. Le questionnaire est présenté en annexe311.
Associations verbales
Le mot « agent » est caractérisé par des compléments de nom, notamment agent de
police, de change, de sécurité, etc. Quelques exemples désignaient des entités non humaines
311
Cf. annexe 9.
177
Les agents intelligents sur Internet : enjeux économiques et sociétaux
comme les « virus ». Pour la plupart des sujets, un agent est un être humain qui exécute une
tâche de contrôle, ou qui travaille pour une assurance ou une banque. L’espion est cité
plusieurs fois. Certains sujets évoquaient des concepts tels que dangerosité, brillance,
esprit. Certains étudiants en sciences mentionnaient des mots comme les adjectifs
« bactérien, viral » et le substantif « chimie ».
L’agent intelligent était perçu à 35,4% comme un être humain. Les sujets évoquaient
James Bond, agent secret, des professions comme celles d’avocat, de technicien, de
chercheur, des intellectuels et le savant Pasteur. La machine n’accueillait que 10% des
réponses, notamment moteur, robot, ordinateur, machine future. L’institution représentait
9% avec la CIA et la police. Les termes abstraits étaient très abondants (23%) avec des
adjectifs tels que « riche, efficace, rapide, autonome, inventif », et des substantifs comme
« substitution, réflexion, cataclysme ». Toutefois, 15% des personnes interrogées n’ont pas
répondu à cette question.
L’expression « machine intelligente » était très évocatrice des TIC (32%), notamment le
robot, l’ordinateur, le téléphone, la calculette, les réseaux, l’IA. Les termes abstraits (20%)
comprenaient des adjectifs comme « évolutif, efficace, rapide, informatisé » ; et des
substantifs comme « programmation, perfectionnement, innovation, autonomie,
indépendance ». L’humain et les « sans réponses » ne représentaient que 3% chacun. Une
machine, TIC ou autre, était citée à 41%. Pour les enquêtés, la machine peut être qualifiée
178
Deuxième partie ─ De l’observation des usages à celle des usagers
d’intelligente, surtout celles faisant partie des nouvelles technologies. L’imaginaire était
présent dans le corpus par les substantifs « cyborg » et « androïde ».
Pour « outil intelligent », les sujets citaient les TIC à 20%, des machines à 39%,
l’abstraction à 21%, avec un taux de 15,8% pour les sans réponse. Les TIC comprenaient
l’ordinateur, le logiciel, le logiciel programmeur, le processeur, la calculatrice, l’outil
automatique. Les termes abstraits englobaient « solution, innovation, polyvalence,
interprétation, rapidité et analyse ». On admettait donc à 39% l’emploi de l’adjectif
intelligent pour le nom commun outil.
Le « moteur intelligent » était caractérisé par le taux élevé de sans réponse (36%), avec
25% pour la machine, 23,8% pour l’abstraction et seulement 12,5% pour les TIC. On
évoquait le métamoteur, le « GPS et le moteur de recherche ». Google et Yahoo étaient
cités une fois chacun, de même que Jaguar et BMW. La catégorie abstraction comprenait
des termes associés à l’informatique et à l’IA, notamment, « autonome, recherche, analyse,
exploration, performance, rapidité, mémoire, compréhension, régulation et raisonnement ».
179
Les agents intelligents sur Internet : enjeux économiques et sociétaux
Là encore, l’adjectif peut qualifier un moteur mais l’occurrence est moins élevée que pour
le précédent terme.
180
Deuxième partie ─ De l’observation des usages à celle des usagers
Les questions suivantes avaient comme ambition de connaître l’attitude des sujets
concernant l’intelligence des animaux. Admettent-ils que d’autres espèces sont dotées
d’intelligence ? La première question portait sur l’intelligence du chien, la seconde sur
l’animal le plus intelligent, selon les enquêtés, en dehors de l’homme.
Concernant le chien, les réponses étaient très variées. Nous avons synthétisé les résultats
en fort (12,9%), moyen (30,6%), faible (48,4%) et zéro (8,1%) sur soixante-deux
observations. Nous constatons que 43,5% des sujets accordent un certain niveau
d’intelligence aux chiens contre 56,5% qui jugent celui-ci faible ou inexistant. La seconde
question fournissait les résultats suivants. Le singe venait en tête avec 46%, à cause de sa
proximité avec l’homme. Le dauphin accueillait 25,4%, le rat 2,8% et les autres animaux
cités (21,1%) : le chien (six fois), le cheval (cinq fois), le chat (deux fois).
Les sujets admettaient donc que les animaux jouissaient aussi d’un certain degré
d’intelligence, inférieur cependant à celui de l’homme. Pouvaient-ils admettre aussi qu’une
machine ou un programme auraient un jour un degré d’intelligence comparable à celui de
l’humain ? C’était l’objectif du groupe de questions suivant.
Si on totalise les catégories danger et extinction, on arrive à 50% contre 28,8% pour les
réponses favorables à l’émergence d’une machine intelligente. La catégorie remplacement
était très ambiguë dans la mesure où elle pouvait impliquer soit un avantage (moins de
travail pour l’homme) soit un inconvénient (chômage massif ou suppression de l’homme).
Les réponses ne fournissaient pas assez d’informations pour trancher sur cette dichotomie.
La question suivante devait nous renseigner sur la manière dont les sujets envisageaient
une interface intelligente : Une interface intelligente serait… Les résultats, extrêmement
variés, ne permettaient pas de catégoriser. Cependant, nous avons observé quelques
concepts comme « l’autonomie, l’adaptation à l’usager, la prise d’initiatives,
l’autogestion, l’organisation de l’information en fonction des besoins de l’utilisateur, la
simplicité d’usage, la capacité de comprendre l’humain et le langage naturel, la
personnalisation, la réactivité, la proactivité et la fiabilité (ne tombe jamais en panne) ».
L’ensemble des réponses était plutôt positif.
La question suivante orientait en quelque sorte les sujets loin de l’éventualité d’une
machine intelligente : Les logiciels ne seront jamais vraiment intelligents parce que… On
invitait le sujet à chercher les raisons qui empêcheraient l’émergence d’une machine
intelligente.
Nous avons construit six catégories de réponses : nécessité de l’humain (43,47%), les
limites de l’intelligence artificielle (25,37%), la création de la machine par l’homme
(19,4%), la différence entre l’homme et la machine (29,8%), l’importance du vivant (6%) et
le danger (1,5%). Ainsi, pour les sujets de cette enquête, les logiciels ne seront jamais
vraiment intelligents parce que : « l'homme reste indispensable » ou « rien ne peut
remplacer l'intelligence de l'homme ». « La main de l'homme est nécessaire pour introduire
un contenu. » Qui plus est, les machines sont les créations de l’homme : « l'homme les
produit », « Elles sont programmées et conçues par nous », « elles sont manipulées par les
hommes. »
182
Deuxième partie ─ De l’observation des usages à celle des usagers
notion imperceptible qui tend vers l'infini. » « Ils ne sauront pas réagir dans le monde
extérieur. » « Ils seront toujours incapables d'innover et de s'adapter. »
D’autres réponses fournissent des explications : c’est qu’« ils manquent de neurones »
« ils n'ont pas de sentiments »312, « ils n'auront jamais de personnalité propre », « ils ne
peuvent pas dépasser l'homme ». Certaines réponses mettent en avant la différence
fondamentale entre la machine et l’homme : « l'homme est doué de certains sens que la
machine ne connaît pas ». Les machines « n’ont pas de conscience. » Il est « quasi
impossible de copier l'esprit humain et sa faculté de s'adapter à son environnement. » Cette
adaptation reste l’apanage du vivant. « Elles n'auront jamais l'intelligence émotionnelle. »
L’impossibilité de créer des programmes intelligents proviendrait du fait que nous ne
connaissons pas très bien le cerveau humain et ce qu’est l’intelligence : « il faudrait
comprendre d'abord le cerveau humain, ce n'est pas pour aujourd'hui. »
Cette question nous renseigne sur les idées reçues concernant la machine intelligente.
Une seule réponse met en évidence un éventuel danger. Pour les autres réponses, nous
sommes protégés par les limites de notre technologie et par notre ignorance et c’est
l’homme qui maîtrise la situation. Il faut toutefois noter que la formulation de cette
question invitait le sujet à une réponse qui nierait l’émergence d’un logiciel intelligent. De
toute évidence, les sujets ne partageaient pas l’hypothèse de l’IA forte313.
Nous avons construit sept catégories. Voici les résultats : l