Jacques ANIS
Université de Paris X Nanterre
ORDINATEURS ET TRADUCTION: SURVOL D'UN DEMI-SIÈCLE
Introduction
Le but de cet article n'est évidemment pas de présenter un historique exhaustif de la traduction
automatique et/ou assistée par ordinateur. Il s'agit d'éclairer le présent par le passé, en insistant sur les
débats souvent récurrents qui engagent les conditions mêmes de possibilité des dispositifs de
traduction totalement ou partiel- lement automatique. Nous utiliserons par commodité le terme de
T.A., le premier apparu historiquement, pour désigner le domaine dans son intégralité 2.
Il est habituel dans l'historiographie de la T.A. de parler en termes de décennies comptées à partir de
1945 3. Nous reprendrons cette tradition, en ajoutant une cinquième décennie . Cela nous permettra de
dégager la problématique actuelle qui repose essentiellement sur un diagnostic mesuré des difficultés
à surmonter pour parvenir à la traduction purement automatique et une diversification des outils de
traduction assistée par ordinateur.
La première décennie (≈ 1945-1955): les premiers pas
Les principaux fondateurs de la Traduction Automatique (Machine Transla- tion) sont Andrew D.
Booth, au départ cristallographe intéressé par l'informatique naissante et Warren Weaver, vice-
président de la Fondation Rockfeller. Sur la base d'une fausse analogie entre la traduction et la
cryptographie 5, la traduction émerge comme la première application non numérique des premiers
ordinateurs. Booth commence dès 47 ses premières tentatives, en collaboration avec Richens, à qui
l'on doit le principe de segmentation des mots en radicaux et désinences. Mais c'est le mémorandum
publié par Weaver en 1949 qui lance la T.A.
Très vite des équipes se forment, de la côte ouest (Los Angeles, Seattle) à la côte est (MIT). Dès 1951,
Yeoshua Bar-Hillel, linguiste israélien, recruté à temps plein pour la TA, reprenait dans un rapport des
thèmes en débat comme l'impossibilité d'une traduction purement automatique et la nécessité d'une
intervention humaine en amont (preediting, préparation du texte) et en aval (postediting, révision); la
répartition du traitement en morphologie et syntaxe « opérationnelle » ; la difficulté d'élaborer une
grammaire universelle sur la base des travaux des logiciens et sur ceux de Harris ou de lui-même ; la
notion de « grammaires de transferts» (transpo- sant les structures grammaticales d'une langue dans
celles d'une autre); la ligne de moindre résistance offerte par les domaines spécialisés (météo,
aviation), les langues normalisées (basic english), les langues artificielles (espéranto, interlingua). En
1952 se tint la première conférence, au MIT. Aussitôt après à l'Université de Georgetown, en
collaboration avec IBM, se forma un groupe qui devait réaliser le 7 janvier 1954 la première
expérience réalisée sur un ordinateur (les autres avaient été simulées à la main), sur un petit nombre
de phrases russes, avec un vocabulaire de 250 mots et six règles de grammaire. Pour limitée qu'elle
soit, cette expérience largement médiatisée accéléra le développement des recherches, aux USA, mais
aussi en Grande- Bretagne, au Canada, en Italie et en URSS.
La deuxième décennie ( 1955-1965): de l'enthousiasme à la déception
Dans le contexte de la guerre froide, largement dotée de subventions d'état essentiellement militaires
(USA et URSS, et également Grande-Bretagne, France et Italie), la TA devient « a multimillion dollar
affair » (Bar-Hillel, 1960, d'après H., 160). La traduction des textes scientifiques soviétiques est le
principal cheval de bataille à l'Ouest, effrayé par les avancées de l'adversaire dans les domaines de
pointe. La T.A. est la locomotive de la linguistique formelle et de ce qui va devenir la linguistique
computationnelle. Au MIT Yngve, puis Chomsky travaillent sur la formalisation de la syntaxe. La
T.A. est aussi considérée comme une pointe avancée de l'Intelligence Artificielle (I.A.), née
officiellement en 1956.
Le travail des nombreuses équipes aboutit à une diversification des méthodes. Si la traduction directe-
d'abord conçue comme un mot-à-mot à peine amélioré, puis intégrant une part variable d'analyse
syntaxique domine largement, s'ajoutent deux autres approches ". D'où la typologie suivante, qui
perdurera.
Un système direct n'opère que les analyses indispensables pour la traduction d'une langue dans une
autre : l'analyse de la syntaxe et du vocabulaire de la langue source n'est pas poussée au-delà de ce qui
est indispensable pour choisir les expres- sions appropriées et l'ordre des mots de la langue cible
(figure 1).
Un système interlingual procède en deux étapes nettement séparées : l'analyse complète du texte
source en une représentation interlinguale et la synthèse du texte cible à partir de celle-ci (figure 2).
Dans un contexte de multitraduction, Pitrat le rappelle également (1985: 2), cette option est
théoriquement beaucoup plus économique : si l'on doit traduire dans n langages, il faut n (n-1)
programmes de traduction directe et seulement 2n programmes interlinguaux. L'interlingua utilisée
peut être une langue logique arti- ficielle, une langue semi-naturelle comme l'espéranto, un ensemble
de primitives sémantiques universelles, etc.
On appelle système par transfert un système qui comporte trois étapes, la première transforme le texte
source en représentations de transfert de la langue source, la seconde transforme celles-ci en
représentations de transfert de la langue cible, à partir desquelles est opérée la synthèse du texte en
langue cible (figure 3, p. 113).
Mais revenons à l'histoire : petit à petit, les difficultés linguistiques devenaient de plus en plus
apparentes et l'optimisme du début se lézardait. Sur la base d'une enquête menée en 1958, Bar-Hillel
publia en février 1959 son Report on the state of machine translation in the United States and Great
Britain (une version parue en 1960 inclut les recherches soviétiques). En fait, il ne faisait que réitérer
sa position, selon laquelle on ne pouvait aboutir à la FAHQT, « Fully Automatic High Quality
Translation » (traduction de « grande qualité totalement automatisée »). Mais il s'appuyait toutefois
sur un exemple, la phrase The box was in the pen, dans un contexte où il s'agit d'un enfant qui cherche
sa boîte à jouets. Dans la phrase, pen ne peut signifier que « parc », et non pas évidemment «<
instrument d'écriture ». L'être humain met en œuvre dans de nombreux cas d'ambiguïté ses
connaissances sur le monde, qu'il est utopique d'intégrer dans un système informatique. Il faut donc
viser soit une traduction automatique de qualité médiocre, utile dans certains cas, soit << high quality
translation by a machine-post-editor partnership » (« traduction de grande qualité grâce à la
collaboration entre la machine et le réviseur »>). Mais c'est l'aspect négatif du rapport qui sera retenu
et déformé, pour être opposé aux recherches en T.A.
En 1961, paraissait l'ouvrage de Mortimer Taube Computers and Common Sense, expression d'un
courant anti-ordinateur. La T.A. était une de ses cibles. Il relevait l'absence de tout système
opérationnel. Mais surtout, il affirmait l'impossi- bilité de formaliser la langue, a fortiori la traduction
(puisque la synonymie stricte est impossible). L'étude de l'Université de Washington avait conclu que
sans recon- naissance optique des caractères, la traduction automatique reviendrait deux fois plus cher
que la traduction humaine. En l'absence de débouchés pratiques, la recherche en T.A. était comparée à
la Quête du Graal 7.
Cependant, les premiers systèmes opérationnels étaient installés : le système de Georgetown au centre
d'EURATOM à Ispra (1963) et à la Atomic Energy Commis- sion du Oak Ridge National Laboratory
(1964); le système IBM sur Mark II à la Foreign Technology Division de l'US Air Force. Les
traductions, de piètre qualité et nécessitant un important travail de révision, répondaient cependant à
des besoins.
Du côté des groupes menant des recherches plus théoriques en revanche, un certain pessimisme se
développait. Yngve (MIT) évoquait en 1964 la « barrière sémantique». C'est en avril de cette même
année, précisément, que l'Académie des Sciences américaine formait le Comité Consultatif du
Traitement Automatique du Langage Naturel (Automatic Language Processing Advisory Committe).
Il s'agissait
-
d'évaluer la rentabilité de la T.A. pour la traduction russe-anglais. Considérant qu'on avait
suffisamment de traducteurs, qui éventuellement pouvaient être aidés par des dictionnaires
automatisés (glossaires et bases de données terminologiques), le comité, s'appuyant sur les traductions
fournies par les systèmes de Georgetown et d'IBM, méconnaissant le travail des autres équipes si ce
n'est pour invoquer l'opinion d'Yngve, concluait qu'il était utile d'encourager la recherche fonda-
mentale en linguistique computationnelle mais qu'il n'y avait aucune perspective immédiate ou
prévisible d'utilité de la traduction automatique » (H., 167). L'argu- ment essentiel du rapport était
dans la disproportion entre l'argent public investi, évalué à 20 millions de dollars ", et les résultats
obtenus.
La troisième décennie (≈ 1965-1975): la « période calme »
L'arrêt des subventions nord-américaines à la suite du rapport ALPAC entraîna la quasi-disparition des
recherches aux USA et en Grande-Bretagne, mais elles se poursuivaient en URSS. En Europe
continentale, la France, l'Italie et la RFA étaient assez actives, la construction de la Communauté
Européenne créant de nouveaux besoins. Le gouvernement canadien, dans le cadre de la politique
biculturelle, commençait à s'engager. Cette «< période calme » est très féconde pour l'avenir.
Certains aspects méthodologiques commencent à s'imposer, quelle que soit l'approche retenue :
séparation des données linguistiques et des algorithmes, modu- larité, développement des techniques
d'analyse (parsing)".
Les systèmes directs continuent d'être améliorés et certains deviennent opéra- tionnels. Par exemple,
Peter Toma commence, à partir de 1964, à développer SYSTRAN (acronyme pour SYStem
TRANslation), d'abord sur le russe-anglais, puis sur d'autres langues. La version russe-anglais
remplace le système IBM et est utilisée par la NASA, pour la mission conjointe Apollo-Soyuz.
-
Cette décennie est marquée par l'exploration de l'option interlinguale. Le groupe de Grenoble, le
CETA dirigé par Bernard Vauquois, développe à partir de 1966 un système russe-français pour la
traduction de textes mathématiques et physiques (qui sera testé sur un corpus de 400 000 mots de
1967 à 1971). Sur le plan syntaxique, une représentation profonde de type propositionnel - -est
construite dans un forma- lisme à vocation universelle (langue pivot), la composante lexicale étant
fondée sur le transfert. De 1966 à 1976, dans de nombreux instituts de recherche soviétique, des
travaux furent menés sur la base des propositions du linguiste russe Mel'chuk : le modèle <<
meaning-text>> traitait non seulement la syntaxe profonde (agent, instru- ment, etc.), mais la
sémantique lexicale, et intégrait également la sémantique discur- sive en gardant trace de la syntaxe
de surface (thème-rhème, choix du sujet, passif). Ces propositions n'avaient pas encore abouti à des
implémentations, quand Mel'- chuk fut limogé en 1976.
Sur un terrain un peu différent mais proche, les années 70 voient naître les premières tentatives pour
appliquer à la T.A. les méthodes de l'Intelligence Artifi- cielle. Wilks à l'Université de Stanford
proposait dans une optique de T.A. sa sémantique préférentielle (à base d'une centaine de primitives)
10,
Mais si les recherches que nous venons d'évoquer préparaient l'avenir, l'appro- che par transfert allait
s'imposer durablement comme la plus réaliste. Bennet et Slocum (1986: 114) écrivent
rétrospectivement pour justifier dans le système METAL" le rejet de l'approche interlinguale:
Une des objections s'appuie sur une expérimentation sur une large échelle et sur le long terme de la «
représentation profonde » (en TA appelée langue pivot) par le groupe du CETA de Grenoble. Après un
énorme investissement en temps et en énergie, comportant des expériences avec d'énormes quantités
(400 000 mots) de texte, il fut décidé que le développement d'une langue pivot adéquate n'était pas
encore possible. L'autre objection s'appuie sur des considérations pratiques : puisqu'il n'est pas
vraisemblable qu'aucun système de traitement du langage naturel soit dans un futur prévisible capable
de manier un input non restreint même dans le(s) domaine(s) technique(s) pour le(s)quel(s) il est
conçu, il est clair qu'une technique d'« échec en douceur » (« fail-soft ») est nécessaire. [...] il est
préférable dans les applications à court terme de commencer par un système employant un niveau
d'analyse « superficiel » (« shallow ») mais utilisable, et d'approfondir le niveau d'analyse selon ce
que dicte l'expérience et ce que permettent les ressources théoriques et budgétaires.
Les chercheurs de Grenoble eux-mêmes, sur la base d'un bilan plus nuancé de l'approche
interlinguale, se réorientèrent dès 1971 vers le transfert. Au Canada, les chercheurs de l'Université de
Montréal (groupe fondé en 1965, dénommé depuis 70 TAUM << Traduction Automatique de
l'Université de Montréal »>) travaillaient éga- lement dans cette direction.
La quatrième décennie ( 1975-1985): le réveil
La période est marquée par deux éléments majeurs. Le premier est l'entrée fracassante du Japon sur la
scène de la T.A. sous l'impulsion du Ministère de l'Industrie et avec la participation des grands
groupes privés 12. Si une certaine dose d'utopie est présente (on est alors à l'époque du projet des
ordinateurs de « cin- quième génération »), c'est le réalisme commercial qui domine. En second lieu,
le développement d'organisations supranationales au premier chef la CEE, mais
pas exclusivement crée d'importants besoins en traduction.
Les institutions de la CEE font l'acquisition de SYSTRAN anglais-français en 1975 et dans les années
qui suivent des systèmes français-anglais et anglais-italien.
Ceux-ci, améliorés dans ce cadre grâce à de très importantes subventions, servent depuis 1981 à
traduire des documents internes de la CEE. En 1983 plus de 400 000 pages passaient déjà par Systran.
En 1976, la Pan American Health Organisation (Organisation panaméricaine de la Santé), organisation
intergouvernementale des deux Amériques et agence régio- nale de l'OMS, s'engage dans la traduction
automatique. Les langues officielles de l'organisme sont l'anglais, l'espagnol, le portugais et le français
mais les besoins les plus importants en traduction concernent évidemment les deux premières. Un
système espagnol-anglais, SPANAM, puis un système anglais-espagnol furent mis au point
successivement et mis en place dans l'ordinateur central de l'organisation (le premier en 1980, le
second en 1984). En décembre 85, SPANAM avait produit plus de 2 millions 600 000 mots, soit près
de 10 500 pages et ENGSPAN plus de 600 000 mots, soit plus de 2 450 pages. Comme l'écrivent les
responsables:
Les textes traités viennent du flux régulier de documentation de l'Organisation, et il n'y a pas de
restriction quant au domaine de discours ou au type de syntaxe. Des traducteurs spécialement
entraînés, travaillant sur l'écran de traitement de texte, produisent des documents élaborés de qualité
professionnelle standard à une cadence deux à trois fois plus rapide que la traduction traditionnelle (4
000- 10 000 mots par jour donnés à la révision (postediting) vs 1 500-3 000 pour la traduction
humaine). [Vasconcellos et León (1988: 187-188)].
Comme on le voit, la traduction automatique s'ancre dans la réalité. Un autre exemple s'impose, celui
du programme canadien TAUM-METEO qui est installé dès 1977 au Centre Canadien de
l'Environnement pour la traduction des bulletins météorologiques d'anglais en français. Ce
programme, qui opère évidemment sur un sous-langage étroit, ce qui lui permet d'utiliser une
grammaire sémantique et de faire l'économie du transfert, est encore aujourd'hui le seul exemple de
traduction purement automatique opérationnelle 13.
Le transfert est indiscutablement l'option dominante des chercheurs à l'appro- che des années 80.
Certaines équipes ont déjà élaboré des systèmes, comme le GETA, avec Ariane-78 14 ou l'Université
de Saarbruck, avec SUSY 15. Deux projets impor- tants sont lancés en 78, Eurotra, vaste projet
européen, qui se mettra lentement en place, et METAL (cf. H., 248-254; Slocum, 1988: 28-30; Bennet
& Slocum, 1988; Hutchins & Somers, 1992: 259-278).
METAL émane des recherches du Linguistics Research Center de l'Université du Texas, un des
groupes historiques de la TA, fondé en 1961, qui, après l'échec de l'option interlinguale constaté en
1975, prend un nouveau départ trois ans plus tard, d'abord avec une subvention de l'U.S. Air Force
Rome Air Development Center
pour un système opérationnel nommé METAL, puis avec le soutien de Siemens AG, qui en devient le
seul commanditaire en 1980. L'essentiel des recherches, dirigées par Slocum, se concentre sur
l'élaboration d'un système allemand-anglais destiné à traduire des textes portant sur les
télécommunications et l'informatique. Une première version opérationnelle fut livrée au sponsor en
janvier 1985. Au cœur du système, conformément aux considérations citées plus haut sur l'utopisme
de l'in- terlingua, se trouve le composant de transfert qui « projette des "analyses superfi- cielles de
phrases" dans la langue source sur des "analyses superficielles de phra- ses" dans la langue cible»
(Bennet & Slocum, 1988: 114). Le système devant constituer un environnement de traduction
complet, des programmes spécifiques marquent les parties à traduire des documents techniques (avec
un contrôle humain) et reformatent les documents à l'issue de la traduction automatique ; c'est alors
qu'est opérée la révision. La traduction se fera comme au stade de recherche sur une machine LISP 16,
les autres phases seront prises en charge par la micro- informatique.
La période voit se développer différentes formes de traduction partiellement automatisée 17. Une des
solutions pour maintenir l'automatisation est de contrôler le texte-source: METEO en est d'une
certaine manière un exemple, grâce au domaine restreint ; XEROX adopte SYSTRAN pour traduire
sa documentation, rédigée dans un Multinational Customized English. Mais on peut aussi viser la
traduction inter- active ainsi ALPS (Automated Language Processing System), commercialisé dès
1983, offre au traducteur travaillant en traitement de texte un outil convivial centré sur la consultation
et l'enrichissement de dictionnaires bilingues 18. On voit ici se dessiner la notion de poste de travail
du traducteur.
La cinquième décennie (≈ 1985-1995): la maturité
On observe un réveil de la T.A. aux États-Unis, qui coïncide avec un nouvel optimisme fondé sur les
progrès de la linguistique computationnelle et de l'informatique 19.
Le début des années 90 est marqué par le bilan nuancé d'EUROTRA. Le programme n'est pas parvenu
au stade préindustriel souhaité. Cependant le projet a permis une diversification des langues traitées
(danois, portugais, italien, grec) et
représente bien l'état de l'art de la période. Un énorme travail d'analyse linguistique et de
formalisation a été mené, dans le cadre méthodologique des grammaires d'unification. Un trait
important est la tendance à un transfert de plus en plus profond et intégrant une part croissante de
sémantique (Danlos, 1990; Lepage, 1990; Bourquin, 1990; Danlos, ce numéro). On assiste alors à un
rapprochement avec l'approche interlinguale; c'est en tout cas le point de vue de Nirenburg et al.
(1992: 32):
The recent movment toward deep transfer [...] is in essence, a movment toward an interlingua
architecture.
Le renouveau de l'approche interlinguale est illustré dans ce même ouvrage 20, sous l'étiquette
Approche fondée sur les connaissances (Knowledge-Based Machine Translation), esquissée par Wilks
dans les années 70 et développée surtout à la fin des années 80 par Carbonnel et Nirenburg à Yale,
Colgate University et plus récemment à Carnegie Mellon University. Il s'agit d'utiliser les méthodes
de l'Intel- ligence Artificielle pour représenter des connaissances très diverses :
⚫ un modèle du monde comportant une ontologie (modèle général du monde physi- que, des modèles
de domaines (tels que la chimie ou le base-ball), un modèle du discours (cohérence, contraintes
stylistiques, procédés rhétoriques), une base de connaissances mémorisant les instances d'objets,
événements et propriétés (Luciano Pavarotti, le putsch militaire manqué en Algérie), un
enregistrement de la compré- hension et de la création du texte fournissant le contexte (nécessaire par
exemple pour traiter les anaphores);
⚫ un lexique pour chaque langue traitée par le système ;
⚫ un formalisme pour représenter le sens du texte (sémantique, discursif et prag- matique);
⚫ des connaissances sur le traitement sémantique comportant notamment l'appa- riement entre
structures syntaxiques et sémantiques, le traitement de la référence (anaphore, deixis, ellipse), la
planification et la structuration du texte 21.
Tout à fait à l'autre pôle, ce qui illustre la diversification des méthodes, on assiste à un renouveau des
méthodes statistiques, soit pour aider à la désambiguïsation, soit dans des domaines très spécialisés
comme méthode exclusive de traduction (IBM) 22.
Des recherches de pointe se développent sur la langue parlée, dans l'optique notamment de la
traduction des conversations téléphoniques 23.
Formulé il y a quelques années comme axe de recherche mais déjà en voie de réalisation, se détache
l'objectif du poste de travail spécialisé en traduction, - de préférence sur micro-ordinateur-comportant
des outils de télécommunication, de consultation de bases de données lexicographiques et
terminologiques, de traitement de texte, de traduction automatique spécialisée (voir notamment
Isabelle, 1989, mais aussi H., 331 et suivantes). L'intégration dans la chaîne documentaire (utilisation
de la lecture optique, maintien du formatage) est cruciale et on l'a déjà vu apparaître dans le système
METAL (commercialisé en 1989) 24.
EUROLANG 25, projet EUREKA, lancé en novembre 1991 et programmé sur 3 ans avec un budget
de 676 MFF, associe les industriels et laboratoires de pointe français (SITE, CNET, GETA, LADL),
allemands (Siemens), anglais, espagnols, italiens, danois et suédois (Volvo) cherche à développer une
gamme diversifiée de systèmes de TAO 26, à partir des acquis d'ARIANE et METAL et en reprenant
aussi certaines avancées d'EUROTRA. Pour fin 1994 sont prévus des produits ayant comme sources
les langues des partenaires et comme cible l'anglais 27, sur station Unix et sur PC. Parmi les axes du
projet se détache l'intégration de la TA, comme outil de prétraduction » 28, dans des systèmes de
THAM (Traduction Humaine Assistée par la Machine) qui s'adapteront à la terminologie des clients
ainsi qu'à l'environnement bureautique préexistants. Il est à noter que depuis 1993 sont disponibles à
des prix comparables à ceux d'un traitement de texte évolué ou d'un logiciel de micro-édition des
logiciels de TAO sur micro-ordinateurs, ceux distri- bués par la société Softissimo, GTS Power
Translator, qui propose également une panoplie de dictionnaires monolingues et bilingues. L'arrivée
de tels outils dans le monde de l'ordinateur de bureau marque une nouvelle étape dans l'histoire de la
TA(O) 29.
Conclusion
L'histoire mouvementée de la T.A./T.A.O. soulève toute une série de questions. On s'aperçoit que le
terme même de traduction recouvre toute une palette d'activi- tés, répondant à des besoins diversifiés.
Comme pour d'autres applications de l'informatique, la machine ne doit pas être conçue comme le
rival de l'homme, utopie qui conduit à une impasse idéologique et pratique, l'ordinateur n'est qu'un
outil adapté à certains usages. Dans cette optique, comme le montre Slocum (1988: 4), le débat
historique sur la FAHQT- ou en français TGQCA: Traduction de Grande Qualité Complètement
Automatisée - apparaît purement académique en effet, l'automaticité ne doit pas exclure la révision,
opération normale en traduction humaine; quant à la qualité, elle dépend de ce que l'on veut faire du
document (interne, externe, par ex.). On doit placer au centre le point de vue des utilisateurs : ... seules
deux choses leur importent les systèmes peuvent-ils produire des documents de qualité suffisante pour
l'usage visé (par exemple la révision)?
l'opération dans son ensemble est-elle rentable ou, rarement, justifiable sur d'autres terrains, comme la
vitesse?
Boitet (1992: 48) exprime un point de vue analogue :
... les avions ne battent pas des ailes, et les systèmes de TA ne traduisent pas comme les traducteurs
humains. [...] La seule chose importante est que leur résultat soit une sorte de traduction acceptable
par des humains pour certaines tâches, qui vont de l'acquisition d'information à la révision
professionnelle 30. Il faut aussi que le professionnel de la traduction ne se sente pas dépossédé et
puisse dialoguer avec des systèmes informatiques souples et conviviaux.
Comme d'autres domaines des Industries de la Langue, la traduction met en lumière la complexité des
langues naturelles-méconnue par les pionniers et par les politiciens de la guerre froide et la nécessité
de collecter une somme de connais- sances linguistiques et pragmatiques considérable pour les traiter.
La participation accrue des linguistes, associés à d'autres secteurs des sciences cognitives, est une des
caractéristiques de la période (« le temps de la linguistique », d'après Lab, 1990). Mais si la
linguistique computationnelle prend la traduction comme un terrain d'expérimentation (« experimental
testbed», Nirenburg et al., 1992: 37) et aussi, corrélativement, comme source de financements publics
et privés, elle doit du même coup se plier aux exigences industrielles et aux besoins des usagers.