Prå-dition et post-ådition des textes pour la traduction automatique : analyse des traductions de diffårents types dans des programmes de la traduction automatique
Histoire de la traduction automatique. Stratågies ou modåles de traduction automatique. TA basåe sur les rågles. Traduction basåe sur des corpus de textes. La prå-ådition et la post-ådition. Logiciels de la traduction automatique, la TA statistique.
Ðóáðèêà | Èíîñòðàííûå ÿçûêè è ÿçûêîçíàíèå |
Âèä | äèïëîìíàÿ ðàáîòà |
ßçûê | ôðàíöóçñêèé |
Äàòà äîáàâëåíèÿ | 25.12.2019 |
Ðàçìåð ôàéëà | 266,7 K |
Îòïðàâèòü ñâîþ õîðîøóþ ðàáîòó â áàçó çíàíèé ïðîñòî. Èñïîëüçóéòå ôîðìó, ðàñïîëîæåííóþ íèæå
Ñòóäåíòû, àñïèðàíòû, ìîëîäûå ó÷åíûå, èñïîëüçóþùèå áàçó çíàíèé â ñâîåé ó÷åáå è ðàáîòå, áóäóò âàì î÷åíü áëàãîäàðíû.
Ðàçìåùåíî íà http://www.allbest.ru/
ÏÐÀÂÈÒÅËÜÑÒÂÎ ÐÎÑÑÈÉÑÊÎÉ ÔÅÄÅÐÀÖÈÈ
ÔÅÄÅÐÀËÜÍÎÅ ÃÎÑÓÄÀÐÑÒÂÅÍÍÎÅ ÁÞÄÆÅÒÍÎÅ ÎÁÐÀÇÎÂÀÒÅËÜÍÎÅ Ó×ÐÅÆÄÅÍÈÅ ÂÛÑØÅÃÎ ÎÁÐÀÇÎÂÀÍÈß
«ÑÀÍÊÒ-ÏÅÒÅÐÁÓÐÃÑÊÈÉ ÃÎÑÓÄÀÐÑÒÂÅÍÍÛÉ ÓÍÈÂÅÐÑÈÒÅÒ»
ÂÛÏÓÑÊÍÀß ÊÂÀËÈÔÈÊÀÖÈÎÍÍÀß ÐÀÁÎÒÀ
îñíîâíàÿ îáðàçîâàòåëüíàÿ ïðîãðàììà ìàãèñòðàòóðû ïî íàïðàâëåíèþ ïîäãîòîâêè 45.04.02 «Ëèíãâèñòèêà»
íà òåìó: Ïðåäðåäàêòèðîâàíèå è ïîñòðåäàêòèðîâàíèå òåêñòà äëÿ ìàøèííîãî ïåðåâîäà: àíàëèç ïåðåâîäîâ ðàçëè÷íûõ òèïîâ äîêóìåíòîâ â ïðîãðàììàõ ìàøèííîãî ïåðåâîäà
Èñïîëíèòåëü:
Îáó÷àþùèéñÿ 2 êóðñà
Ïëåøêî Àíàñòàñèÿ Ñåðãååâíà
Íàó÷íûé ðóêîâîäèòåëü:
ê.ô.í. Êèðè÷åíêî Ì.À.
Ñàíêò-Ïåòåðáóðã, 2018
UNIVERSITÉ D'ÉTAT DE SAINT-PÉTERSBOURG
Faculté des Lettres
Département des langues romanes
MEMOIRE DE MASTER EN LINGUISTIQUE
Pré-édition et post-édition des textes pour la traduction automatique : analyse des traductions de différents types dans des programmes de la traduction automatique
Présenté par
Mademoiselle Pleshko Anastasiia
Sous la direction de
Madame Maria Kirichenko
Maître de conférences à l'Université
d'État de Saint-Pétersbourg
Saint-Pétersbourg, 2018
INTRODUCTION
Dans le monde actuel de l'économie du savoir le travail des linguistes devient une source pour en rapidement tirer et analyser l'information empirique que contiennent les textes en langage natuel. Pour accomplir cette tâche nous avons maintenant dans notre disposition de nombreux outils de la traduction automatique, les systèmes de mémoire de traduction, les bases des données et des connaissances etc. Ce travail est basé actuellement sur les technologies numériques, les ressources linguistiques et les systèmes automatiques de transformation des textes. (Áåëÿåâà, 2016). Ainsi, il ne s'agit plus de traduire les textes mais de corriger les fautes faites par la machine, c'est-à-dire d'effectuer la pré- ou la post-édition.
Nous sommes donc intéressés à effectuer toute une gamme de démarches de traducteur moderne pour analyser le processus de la pré-éditon et de la post-édition des textes techniques en russe et en français de différents types lors de la traduction automatique. traduction text édition
Nous allons chercher à répondre à la problématique suivante : la pré-édition, pourrait-elle optimiser et faciliter le travail du traducteur ou bien c'est toujours la post-édition qui joue le rôle le plus important.
Ce travail sera d'autant plus actuel qu'il mettera en évidence les problèmes que conaissent actuellement les traducteurs de ce paire de langues lors de la pré- et post-édition des textes.Pour effectuer notre recherche nous allons tout d'abord nous procurer des textes en deux langues, le russe et le français, d'un volume total de 6116 mots. Les documents choisis (notices et contrats) font partiede la tradution téchnique, les limites du mémoire ne nous permettant pas d'analyser une gamme plus étendue des documents. Ces textes seront ensuite proposés aux logiciels de la traduction automatique tels que PROMT et Google Translate. Les résultats obtenues feront objet d'analyse de la première post-édition. Plus loin, une liste établie des fautes nous permettra d'effectuer les changements nécessaires lors de la pré-édition. Les textes portant ces changements seront pour la deuxième fois retraduits par les logiciels. Finallement, la deuxième post-édition nous aidera à juger sur l'utilité de la pré-édition éffectuée.
En tant que fondement théorique, le présent mémoire s'appuie sur les travaux des chercheurs russes et étrangers tels que C. Champsaur, A.-M. Loffler-Laurian, A.-M. Robert, C. Boitet, J. Blois, V. Roganov, P. Chromenkov L. Belyaeva et autres traitant de l'automatisation de la traduction. En ce qui concerne la base méthodologique, nous avons fait appel à la recherche quantitative, la recherche d'observation et la recherche comparative.
Nous voudrions comprendre et apporter les réponses aux questions suivantes : quel type de texte nécessite plus la pré-édition et la post-édition ? Quels sont les particularités de ces processus par rapport aux textes analysés ? A quel point la pré-édition est-elle nécessaire ? Quels logiciels pouvons-nous utiliser ? Quels sont leurs caractéristiques ? Quelle configuration apporte la meilleure solution ? Quelles fautes ont été rencontrées le plus souvent lors de la post-édition ? Quels sont les changements qui doivent être apportés lors de la pré-édition ? Ces fautes et changements : dépendent-ils des types de textes ?
La pertinence théorique du mémoire de recherche consiste à contribuer à la description du processus de la pré- et post-édition des textes techniques en russe et en français qui n'est pas pour l'instant très profondément étudié. Cette recherche permettra aux traducteurs d'utiliser les résultants obtenus lors de leur travail et pourra intéresser les concepteurs des logiciels de traduction.
Le présent mémoire est composé de l'introduction, deux chapitres, conclusion et des annexes présentant les textes-sources, leurs traductions et leurs variantes de la pré-édition et de la post-édition.
I. THÉORIE
1.1 Histoire de la traduction automatique (TA)
Le présent chapitre est destiné à revoir les points fondamentaux du développement de la traduction automatique dès le XIXe siècle jusqu'à nos jours. Il paraît cohérent de prendre comme base la présentation des étapes de l'histoire de la TA faite par CNRS (Léon,2002).
“La Préhistoire” de la TA (XIXe s. - 1948)
Charles Babbage (1791-1871), mathématicien et inventeur britannique, a été le premier à avancer l'idée sur la possibilité de la traduction automatique (http://www.slowo.ru/stat4_1.html). En 1834-1836 il a élaboré le projet d'une machine analytique numérique qui est devenue prototype mécanique des premières machines à calculer électroniques parues 100 ans plus tard. L'idée de Babbage consistait en l'utilisation des cartes perforées comme mémoire pour les dictionnaires. Faute de financement il n'a jamais su réaliser ce projet (https://fr.wikipedia.org/wiki/Charles_Babbage#La_machine_analytique).
Les premiers dictionnaires mécaniques ont été créés par A. Vakhner en 1924, Estonie, P. Smirnov-Troianski en 1933, URSS et G. Artsrouni en 1933, France (Blois, 1968). La machine d'Artsrouni présentait un dictionnaire bilingue sur un ruban perforé. L'invention de Smirnov-Troianski a été enregistrée comme “machine pour sélectionner et imprimer les mots lors de la traduction d'une langue à une autre” (Íåëþáèí, 1991). Il s'agissait ainsi de la création du premier dictionnaire mécanique dans l'histoire technique. Étant composée du dictionnaire bilingue (80.000 mots) et de quelques règles grammaticales, cette machine était censée faire la traduction en trois étapes : premièrement, l'homme devait transformer les phrases en forme initiale à la base d'espéranto ; deuxièmement, la machine faisait la traduction et, finalement, ñ'était à l'homme une fois de plus de faire la rédaction de la traduction obtenue. Comme nous pouvons le remarquer, dès le début de la TA, la présence de l'homme était nécessaire pour effectuer la pré-édition et la post-édition du texte, les deux processus accompagnant jusqu'à présent la TA qui seront analysés dans le présent ouvrage.
Une idée également importante proposée par Smirnov-Troianski était la présence d'un langage pivot, principe qui sera après utilisé par des systèmes plus compétitifs de la TA, i.e. CETA, TAUM. Pourtant à cette époque-là la traduction automatique idéale se présentait pour les chercheurs comme un système audiovisuel de présentation de la traduction sans participation de l'homme(Boitet, 1976). Malgré la lenteur de la machine de Smirnov-Troianski et sa non-commercialisation, l'inventeur a cherché à résoudre quelques problèmes linguistiques bien qu'il se soit fondé sur l'idée que l'ordre des mots dans toutes les langues était pareil.
Première période (1948 - 1960) : idées et expérimentations
Le vrai développement de la TA commence après la Seconde Guerre mondiale. Ñ'était notamment le début de la Guerre froide et la confrontation progressive entre les Etats-Unis et l'ex URSS qui a poussé l'invention des outils spéciaux destinés à traduire automatiquement des périodiques scientifiques de l'anglais vers le russe et vice versa. Les premières expériences en traduction automatique ont été lancées en 1948 en Grande-Bretagne puis reprises en 1949 par le Memorandum de W. Weaver. Son oeuvre a provoqué des recherches dans plusieurs universités américaines. Selon Weaver, le principe de la traduction se fondait sur la cryptographie et l'idée des principes universels des langages naturels (Íåëþáèí, 1991).
En même temps que Weaver, c'étaient Andrew D. Booth et Norbert Wiener qui travaillaient sur les outils de la TA. Beaucoup de chercheurs à cette époque-là voyaient la traduction se faire en deux étapes, le premier consistant en la traduction des phrases vers une langue intermédiaire appelée “interlingua” (espéranto, anglais simplifié ou encore une langue artificielle).Le sinologue Erwin Reifler était parmi les premiers à saisir l'idée de Weaver (MT News International, no. 22, July 1999, pp.5-6, 15). Il a proposé des usages possibles de la traduction littérale brute, a introduit les notions de la pré- et post-édition et enfin a suggéré l'usage des langues régularisées.
Cette période est devenue également celle des premières expériences. Dans ce contexte nous pouvons évoquer non seulement le premier symposium de la traduction automatique qui s'est tenu à l'Institut de technologie du Massachusetts en 1952 mais aussi, ce qui est plus important, l'expérience Georgetown à New-York en 1954. Il s'agit notamment de la traduction du russe en anglais de 60 phrases utilisant le vocabulaire de 250 mots et six règles de syntaxe faite par le système IBM Mark II sous la direction de L. Dorstert.(Gross, 1972). Cette expérience a déclenché des recherches accélérées et a beaucoup impressionné la science mondiale.
La logique suggère que ce soit l'URSS qui devrait continuer les expériences dans le domaine de la TA. C'est en 1955 que la première traduction d'anglais en russe a été effectuée à la base du premier dictionnaire anglo-russe comprenant respectivement 952 et 1073 mots. Dans le même temps, se développent des grammaires formelles, notamment la grammaire catégorielle de Y. Bar-Hillel (1953) et la grammaire générative de Chomsky (1955) qui deviendra par la suite une grammaire classique pour les langues artificielles y compris celle de programmation. La linguistique se forme comme une science. Pourtant, la linguistique traditionnelle ne disposait pas à l'époque de connaissances nécessaires sur le sémantique et la syntaxe. Il n'existait pas non plus de listes de configurations syntaxiques, leurs conditions combinatoires n'étaient pas encore étudiées, ainsi que les règles de composition des unités syntaxiques longues à la base de celles plus courtes (http://www.slowo.ru/stat4_1.html).
Parmi les chercheurs soviétiques qui ont contribué au développement de la linguistique mathématique en vue de création de bases théoriques de la TA nous pouvons citer I. Belskaya, I. Mel'chuk, O. Kulagina, Y. Motorina, A. Lyapunov. I. Belskaya a su réalisé à Moscou le premier dictionnaire automatique anglo-russe de type ouvert : ce système pouvait traduire non seulement des textes qui traitaient des sujets de mathématiques mais aussi d'autres types de textes. Pour ce faire il était nécessaire d'élargir le dictionnaire. Ce système expérimental de la TA était un progrès en comparaison avec l'expérience de Dorstert.
À cette période-là les études se focalisaient encore sur les systèmes complètement automatiques considérant la post-édition comme une solution du compromis. Les travaux des chercheurs soviétiques (I. Melchuk, A. Lyapunov) abordaient également une modèle de traduction “sens - texte” aussi connue sous le nom de I-system (interligva-system) : il s'agissait d'obtenir une présentation sémantique de la phrase initiale indépendamment des langues de traduction via l'analyse sémantique; la synthèse de phrase de sortie devait se faire à la base de la présentation sémantique obtenue.
Peu de temps après la première traduction de l'anglais vers le russe, c'était la première traduction de français en russe qui a été réalisée sous la direction de O. Kulagina à l'aide de machine à calculer électronique “Strela”. En 1956 à Moscou à été crée un “Laboratoire de la traduction automatique” dont Y. Motorin, mathématicien, linguiste et traducteur, est directeur. Le groupe de Motorin a étudié des textes des périodiques dans le domaine politique et sociale (5 millions d'entrées) pour dresser des dictionnaires de fréquence qui allaient servir à la machine. Après avoir été testée, cette stratégie de la TA a été reconnue comme la première stratégie économiquement rentable.
Deuxième période (1960-1966) : l'analyse syntaxique
Le système de traduction “word to word” était progressivement remplacé par le T-system (transfer-system) où la traduction se faisait au niveau syntaxique selon les règles grammaticales. De nombreux de pays s'investissaient à la recherche dans le domaine de la TA tels que les Etats-Unis, l'Union Soviétique, le Japon, la Chine, l'Italie, la France, le Mexique, la Belgique et autres. Or, c'était l'URSS qui présidait sur cette liste selon le nombre de nouveaux systèmes créés de la TA.
Vers la fin des années soixantes, Peter Toma, ingénieur hongrois et futur créateur du système de TA SYSTRAN, a commencé à travailler sur un système de traduction automatique pragmatique. Il était convaincu que “le traitement du langage devait être adapté aux possibilités de l'ordinateur plutôt que l'inverse” (Loffler-Laurian, 1996). Pendant cette même décennie se concrétise l'intérêt des Français pour la traduction automatique. En 1959 le CNRS (Centre national de la recherche scientifique) créé d'abord l'ATALA (Association pour l'étude et le développement de la traduction automatique et de la linguistique appliquée) qui sera suivi par le CETA (Centre d'études pour la traduction automatique). Pourtant, il est à noter que l'intérêt des Français à l'égard de la TA était relativement tardif du fait que “l'armée et l'industrie françaises n'ont manifesté qu'un intérêt frileux pour les calculatrices électroniques” (Léon, 2002). Pourtant les Français ont été pratiquement les seuls au monde à poursuivre les recherches après la publication du rapport de l'ALPAC (Automatic Language Processing Advisory Committee) en 1966.
Troisième période (1966-1980) : la survie et la “force brute” des grands systèmes
L'ALPAC était un comité de sept scientifiques dirigé par John R. Pierce, créé en 1964 par le gouvernement des États-Unis afin d'évaluer les progrès de la linguistique computationnelle en général et de la traduction automatique en particulier (Hutchins, 1995). Son rapport, publié en 1966, a acquis une certaine notoriété en étant très sceptique à l'égard de la recherche en traduction automatique et en insistant sur la nécessité de la recherche fondamentale en linguistique computationnelle; cela a finalement amené le gouvernement américain à réduire considérablement son financement du projet. Selon eux, seule fabrication d'outils d'aide à la traduction restait nécessaire (i.e. dictionnaires automatiques). Il s'agissait par conséquent du déclin des travaux de recherche et de la dissolution des groupes de travail. Peter Toma a dû déménager en Allemagne pour pouvoir continuer ses travaux de recherche.
Beaucoup de pays intégraient la traduction automatique sous couvert d'autres thèmes: automatique documentaire, linguistique mathématique ou computationnelle, intelligence artificielle. Les travaux se poursuivaient aux Etats-Unis, au Japon, à l'URSS, en France et dans d'autres pays. Les efforts ont été surtout concentrés aux universités et quelques institutions spécialisées comme GENA (France), SUSY (Allemagne), TAUM (Canada). Il existait également des projets commerciaux comme WEIDNER ou ALPS. Ce dernier a été financé par l'église Mormon en vue de traduction de la Bible (http://www.wmz-portal.ru/page-id-2.htmI). Il également est devenu le “grand-père” de tous les systèmes de mémoire de traduction.
C'est en 1969 que la Foreign Technology Division de l'US Air Force reconnaît les avantages de SYSTRAN par rapport aux autres systèmes de traduction automatique, et installe une première version russe - anglais. La traduction automatique est donc alors conçue comme une aide aux services de renseignements. (A.-M. Loffler-Laurian, 1996, p. 49). A partir de ce moment nous pouvons parler d'un renouveau de la traduction automatique. Nous ne traitons plus la TA d'ennemi pour un homme mais plutôt d'assistant au travail humain. Pendant cette période, s'accroît à nouveau le nombre de groupes de travail, se développent des systèmes commerciaux de la TA, les traductions de la part de nombreuses institutions et entreprises connaît une hausse en terme de demande. Nous voyonsbien la nécessité de participer à la mondialisation pour pouvoir développer la collaboration internationale sur la TA, de travailler plutôt la qualité que la vitesse de traduction pour créer des systèmes nécessitant l'utilisation du minimum de ressources. C'est à cette époque-là que CETA en France donne naissance à Ariane grâce au CNRS et le projet SYSTRAN se voit soutenu par NASA. Plus tard, la Commission des Communautés européennes achète la version anglo-française du système ainsi que le système russe-anglais et commande l'élaboration des versions franco-anglaise et italo-anglaise. En même temps grâce à cette Commission ont été posés les fondements du projet EUROTRA basés sur le travail des groupes SUSY et GETA. En 1974 a été lancé METEO, système de traduction canadien de l'anglais en français. Nous observons également l'apparition des systèmes de traduction automatiques et semi-automatiques (comprenant la pré- et la post-édition), de grands dictionnaires automatiques multilingues et de bases des termes.
Le tournant japonais et l'automatisation de la communication (1980 - 1990)
Le début des années 80 marque un tournant important. Le développement des ordinateurs et la mondialisation de la consommation encourage l'arrivée d'une nouvelle étape pour la TA, celle de la commercialisation. Il s'agit maintenant de traduire des modes d'emploi, des descriptifs de produits ou de machines, choses incontournables pour leur commercialisation au niveau mondial. Le tournant est animé par les Japonais en 1982, avec le projet « 5e génération » à l'ICOT (Institute for New Generation ComputerTechnology) et aidé par le MITI (Japan's Ministry of International Trade and lndustry).
Se développent des systèmes interactifs de traduction automatique assistée par des humains, et des stations de travail de traduction assistée par ordinateur (TAO). Apparaissent de nouveaux méthodes de la TA comme le modèle statistique, la mémoire de traduction (MT) mais aussi le méthode basé sur des exemples (EMBT - Example Based Machine Translation) développé par Makoto Nagao en 1981.
Partout dans le monde les études à cette période se fondaient sur la traduction des éléments linguistiques à l'aide de l'analyse morphologique, sémantique et syntaxique. L'année 1984 a été marqué par la création du système TRADOS en Allemagne, logiciel d'aide à la traduction fondé sur le principe de la mémoire de traduction (TM).
Depuis 1990 : le retour des méthodes empiriques
Dans les années 1990 les États-Unis commencent à nouveau s'intéresser à la traduction automatique. Cet intérêt est premièrement économique : besoin de traduire les documents japonais, diminution des coûts de l'informatique et augmentation des coûts de la traduction surtout pour les langues à alphabets non latins comme le japonais. Ce renouvellement reste cependant limité et se caractérise par le développement de systèmes utilisant des stratégies et des techniques mixtes. Des modules «intelligents» et des modules probabilistes complètent les modules d'analyse de langue plus traditionnels. Mais ces systèmes sont loin d'être commercialisés et le clivage entre stations d'aide à la traduction et systèmes de traduction augmente (J. Léon, 2002, p. 4).
On voit à cette époque-là apparaître des ordinateurs personnels moins coûteux mais en même temps plus puissants, l'utilisation d'Internet commence à emporter le terrain et la demande pour les logiciels de la TA est en hausse. Dans cette période nous observons le regain des approches empiriques et du traitement statistique de grands corpus. Plusieurs méthodes de traduction automatique sont fondées sur les mémoires de traduction utilisant des corpus bilingues alignés, tels le corpus anglais-français des actes parlementaires canadiens, les Canadian Hansards (J. Léon, 2002, p. 5).
L'année 1991 a été marqué par la création du système PROMT en Russie. L'année suivant ce système a gagné un appel d'offre lancé par NASA pour la livraison des systèmes de traduction automatique de l'anglais vers le russe. En 1992 PROMT produit toute une série de systèmes sous le nouveau nom STYLUS pour traduire de l'anglais, l'allemand, le français, l'italien et l'espagnol vers le russe et le russe vers l'anglais. L'année suivante, la création sur la base de STYLUS du premier système de la TA au monde pour Windows voit le jour. Ce système est l'un des principaux qui est reconnu non seulement en Russie, où il n'a pratiquement pas de concurrents mais aussi à l'étranger. Dans la même année a été élaborée une version industrielle du système RETRANS de la TA phraséologique pour la paire russe-anglais qu'on utilisait dans le Ministère de la Défense, du Transport, de la Science et des Technologies ainsi que dans le Centre Russe de science, de technologie et d'information (http://www.slowo.ru/stat4_1.html).
A l'heure actuelle
A présent, c'est le développement des systèmes commerciaux de la TA par plusieurs entreprises qui se poursuit (Systran, IBM, L&H (Lernout & Hauspie), Transparent Language, Cross Language, Trident Software, Atril, Trados, Caterpillar Co., LingoWare, Ata Software, Lingvistica b.v. etc). Nous voyons également la création de nouveaux projets de recherche tels que MOSES (2007), PORTAGE (2010) utilisant la traduction automatique statistique et le principe du filtrage par motif (pattern matching). C'est maintenant que nous avons la possibilité d'utiliser des logiciels grand public tels que Systran, Reverso de Softissimo, Personal Translator de Linguatec, Traduction Express de @Prompt, SDL BeGlobal etc. qui peuvent être basés soit sur les règles statistiques, linguistiques ou des systèmes hybrides. Il existe également un certain nombre de dictionnaires automatiques (en ligne et hors ligne), de base de termes, de systèmes de la mémoire de traduction et de sites de traduction disponibles sur web (Systran, Reverso, Yahoo ! BabelFish, SDL FreeTranslation.com, ProMT-Online, Babylon, WordLingo, Translator, Frengly.com, Lexicool, Google Translate etc.) Aujourd'hui beaucoup de logiciels de traduction combinent ces possibilités. Les nouvelles technologies sont en train de se développer : il s'agit notamment des réseaux de neuron et des concepts de connectionnisme. Le progrès technologique de nos jours permet également d'utiliser la voix lors de la traduction via les systèmes de reconnaissance automatique de la parole. Pourtant les possibilités vont encore plus loin : en 2010, des chercheurs allemands de l'Institut de technologie de Karlsruhe ont élaboré le système pouvant reconnaître les mots par l'articulation visuelle comme chez les personnes sourdes (http://rusrep.ru/2010/24/istoriya_perevoda).
A l'heure actuelle, nous pouvons remarquer une certaine déception par rapport à la traduction automatique. Certains regrettent le faible progrès depuis des années 1960, en reconnaissant que les systèmes se sont beaucoup perfectionné au niveau de la vitesse mais peu au niveau de la qualité, et que les traductions faites par la machine sont inférieures à celles faites par des traducteurs humains. Nous pouvons ensuite parler de l'impuissance de la linguistique à engendrer des systèmes efficaces de TA. Nous nous trouvons présentement devant une contradiction ambiguë : nous sommes convaincus que les systèmes linguistiques de TA utilisés dans la linguistique computationnelle ne peuvent pas nous produire une vraie traduction ; en ce qui concerne les stations d'aide aux traducteurs, elles utilisent les systèmes de TA comme un moyen parmi d'autres. Donc la question se pose : a-t-on vraiment besoin de continuer à perfectionner la traduction automatique ?
1.2 Types de traduction
Dans le présent chapitre nous essayerons de démontrer les types de traductions existant. À ce stade, il est important de faire la distinction entre deux termes qui sont étroitement liés et qui ont tendance à être confondus par les non-spécialistes: la traduction automatique (TA) et la traduction assistée par ordinateur (TAO). Ces deux technologies sont la conséquence de différentes approches. Ils ne produisent pas les mêmes résultats et sont utilisés dans des contextes distincts (Peraldi, 2014). La TA vise à rassembler toutes les informations nécessaires à la traduction dans un programme afin qu'un texte puisse être traduit sans intervention humaine. Il exploite la capacité de l'ordinateur à calculer pour analyser la structure d'une phrase ou d'une phrase dans le langage source, la décomposer en éléments facilement traduisibles et ensuite créer une proposition avec la même structure dans la langue cible. Il utilise d'énormes dictionnaires plurilingues, ainsi que des corpus de textes déjà traduits. Comme nous l'avons déjà mentionné, dans les années 1980, la TA a tenu de grandes promesses, mais elle perd de plus en plus de terrain en faveur de la traduction assistée par ordinateur, car celle-ci répond de façon plus réaliste aux besoins réels.
La TAO utilise un certain nombre d'outils pour aider le traducteur à travailler avec précision et rapidité, les plus importants étant les bases de données terminologiques et les mémoires de traduction. En effet, l'ordinateur offre une nouvelle façon d'aborder le traitement de textes. Travailler avec un document numérique nous donne accès non-séquentiel à l'information afin que nous puissions l'utiliser selon nos besoins. Il devient facile d'analyser les phrases du texte source, de vérifier le contexte dans lequel un mot ou un texte est utilisé, ou de créer un inventaire de termes, par exemple. De même, toute partie du texte cible peut être modifiée à tout moment et des versions parallèles peuvent être produites pour comparaison et évaluation. Tous ces aspects ont de profondes implications pour la traduction, notamment en terme d'évaluation des résultats, puisque le traducteur peut travailler de manière plus détendue en raison de la plus grande liberté de faire des changements à tout moment pendant que le travail est en cours.
Les problèmes linguistiques lors de la traduction automatique et l'éfficacité d'une telle traduction fait actuellement objet de nombreuses recherches (À.Â. Àíèñèìîâ, À.Â. À÷êàñîâ, Â.Á. Êàøêèí, Î.È. Ìàêñèìåíêî, Â.È. Øàäðèíet autres). Il est important de souligner que les systèmes de traduction automatique ne sont pas encore capables de produire un texte immédiatement utilisable, car les langues dépendent fortement du contexte et des différentes dénotations et connotations des mots et des combinaisons de mots. n'est pas toujours possible de fournir un contexte complet dans le texte lui-même, de sorte que la traduction automatique soit limitée à des situations concrètes et soit considérée comme un moyen de gagner du temps plutôt que de remplacer l'activité humaine. Cela nécessite une post-édition afin de produire un texte cible de qualité.
1.2.1 Fully Automatic High-Quality Translation (FAHQT)
Comme l'avait auparavant déclaré Yehoshua Bar-Hillel (Bar-Hillel, 1960), la traduction automatique de haute qualité pleinement automatique (FAHQT) reste irréalisable, même pour les textes scientifiques. D'après lui, un traducteur humain, pour arriver à une traduction de haute qualité, est souvent obligé d'utiliser intelligemment des connaissances extra-linguistiques qui doivent parfois être d'une largeur et d'une profondeur considérables. Sans cette connaissance, il serait souvent incapable de résoudre les ambiguïtés sémantiques. Y. Bar-Hillel arrive à une conclusion qu'il n'y a aucun moyen ni de construire des machines ayant une telle connaissance, ni d'écrire des programmes qui assureront une utilisation intelligente de ces connaissances.
1.2.2 Traduction automatique assistée par l'homme (TA)
La traduction automatique est un sous-domaine de la linguistique computationnelle qui étudie l'utilisation du logiciel pour traduire un texte ou un discours d'une langue à l'autre.
Au niveau de base, la TA effectue une simple substitution de mots dans une langue pour des mots dans une autre, mais cela seul ne peut généralement pas produire une bonne traduction car la reconnaissance de phrases entières et de leurs équivalents les plus proches dans la langue cible est nécessaire. Résoudre ce problème avec des techniques statistiques et un corpus est un domaine en croissance rapide qui conduit à de meilleures traductions, au traitement des différences de typologie linguistique, à la traduction des idiomes et à l'isolation des anomalies.
Le logiciel de traduction automatique actuel permet souvent la personnalisation par domaine ou profession (i.e. rapports météorologiques) ce qui améliore l'efficacité en limitant le nombre des substitutions permises. Cette technique est particulièrement efficace dans les domaines où le langage formel est utilisé (http://linguisticus.com/ru/TranslationTheory/OpenFold). Il s'ensuit que la traduction automatique de documents gouvernementaux et juridiques produit plus facilement des résultats utilisables que des conversations ou des textes moins standardisés.
Il en résulte qu'on ne peut pas parler de la traduction automatique au sens propre de ce terme. Il s'agit plutôt de la traduction à l'aide des programmes de la TA (PROMT, SYSTRAN, METEO) avec la participation de l'homme : par exemple, certains systèmes sont capables de traduire plus précisément si l'utilisateur a identifié sans ambiguïté quels mots du texte sont des noms propres. Avec l'aide de ces techniques, la TA s'est avérée utile comme un outil pour aider les traducteurs humains et, dans un nombre très limité de cas, peut même produire une traduction qui peut être utilisée telle quelle (i.e. rapports météorologiques).
Le progrès et le potentiel de la traduction automatique ont fait l'objet de nombreux débats tout au long de son histoire. Depuis les années 1950, un certain nombre de chercheurs ont remis en question la possibilité d'obtenir une traduction entièrement automatique de haute qualité. Certaines critiques prétendent qu'il existe des obstacles de principe à l'automatisation du processus de traduction. Mais dans la réalité, nous sommes quand même d'accord que les programmes de traduction automatique ne peuvent pas parvenir à des résultats importants sans être assistés par un traducteur humain procédant à la pré- et/ou post-édition de la traduction obtenue.
1.2.3 Traduction assistée par ordinateur (TAO)
Traduction assistée par ordinateur (TAO ou CAT en anglais) est une forme de traduction dans laquelle un traducteur humain utilise du matériel informatique pour soutenir et faciliter le processus de traduction.
Les systèmes automatiques de la TA disponibles aujourd'hui ne sont pas capables de produire des traductions de haute qualité sans aide: elles doivent être éditées par un humain qui corrige des erreurs et améliore la qualité de la traduction.
Certaines solutions avancées de traduction assistée par ordinateur incluent la traduction automatique contrôlée. Les modules de la TA à prix plus élevé fournissent généralement un ensemble plus complexe d'outils disponibles au traducteur qui peuvent inclure des fonctions de gestion terminologique ou autres outils linguistiques. Des dictionnaires d'utilisateur soigneusement personnalisés, basés sur une terminologie correcte, améliorent significativement la précision de la traduction automatique et, par conséquent, visent à augmenter l'efficacité de l'ensemble du processus de traduction.
La traduction assistée par ordinateur est un terme large et imprécis couvrant une gamme d'outils, du plus simple au plus compliqué. Ceux-ci peuvent inclure par exemple des outils de mémoire de traduction (MT), constitués d'une base de données de segments de texte dans une langue source et de leurs traductions dans une ou plusieurs langues cibles ; correcteurs orthographiques, intégrés dans un logiciel de traitement de texte, ou disponibles en tant que programmes complémentaires ; vérificateurs de grammaire, soit intégrés dans un logiciel de traitement de texte, soit disponibles en tant que programmes additionnels ; dictionnaires électroniques, unilingues ou bilingues, etc.
Des mémoires de traduction étant un outil de base de la TAO, elles méritent notre attention particulière. Les mémoires de traduction stockent les textes sources précédemment traduits et leurs textes cibles équivalents dans une base de données et récupèrent les segments associés lors de la traduction de nouveaux textes. Ces programmes divisent le texte source en unités gérables appelées "segments". Une phrase source-texte ou une unité semblable à une phrase peut être considérée comme un segment. Au fur et à mesure que le traducteur parcourt un document, le logiciel affiche successivement chaque segment source et fournit une traduction précédente à réutiliser s'il trouve un segment source correspondant dans sa base de données. Si ce n'est pas le cas, le programme permet au traducteur d'entrer une traduction pour le nouveau segment. Une fois la traduction terminée, le programme enregistre la nouvelle traduction et passe au segment suivant. Dans le paradigme dominant, la mémoire de traduction est en principe une simple base de données contenant le segment de langue source, la traduction du segment et d'autres informations telles que date de création du segment, dernier accès, nom du traducteur, etc. La technologie de la mémoire de traduction est particulièrement utile pour les organisations qui traduisent un texte contenant un vocabulaire spécialisé lié à une industrie en particulier, i.e. industrie automobile.
1.3 Stratégies ou modèles de traduction automatique
Le présent chapitre est consacré à l'énumération des stratégies de la TA. La
1.3.1 TA basée sur les règles
La traduction automatique est un système d'exploitation autonome avec des stratégies et des approches qui peuvent être classées comme suit:
- la stratégie directe
- la stratégie de transfert
- la stratégie du langage pivot
La stratégie directe, la première à être utilisée dans des systèmes de TA, implique un minimum de théorie linguistique. Cette approche est basée sur un binôme « langue source - langue cible » prédéfini dans lequel chaque mot du syntagme de langue source est directement lié à une unité correspondante dans la langue cible avec une corrélation unidirectionnelle, par exemple de l'anglais vers l'espagnol mais pas à l'inverse. L'exemple le plus connu de cette approche est le système créé par l'Université de Georgetown, testé pour la première fois en 1964 sur les traductions du russe vers l'anglais. Le système de Georgetown, comme tous les systèmes existants, est basé sur une approche directe avec une forte composante lexicale. Les mécanismes d'analyse morphologique sont très développés et les dictionnaires extrêmement complexes, mais les processus d'analyse syntaxique et de désambiguïsation sont limités. Par conséquent, les textes ont besoin d'une seconde étape de traduction par des traducteurs humains. Il y a un certain nombre de systèmes qui fonctionnent sur le même principe: par exemple SPANAM, utilisé pour la traduction espagnol - anglais depuis 1980, et SYSTRAN, développé aux États-Unis à des fins militaires pour traduire du russe vers l'anglais (Machine translation : from research to real users, 2002).
La stratégie de transfert met l'accent sur le concept de «niveau de représentation» et comporte trois étapes. L'étape d'analyse décrit le document source linguistiquement et utilise un dictionnaire de langue source. L'étape de transfert transforme les résultats de la phase d'analyse et établit les équivalents linguistiques et structurels entre les deux langues. Il utilise un dictionnaire bilingue de la langue source vers la langue cible. L'étape de génération produit un document dans la langue cible sur la base des données linguistiques de la langue source au moyen d'un dictionnaire de langue cible.
La stratégie de transfert, développée par GETA (Groupe d'Études pour la Traduction Automatique) à Grenoble en France, dirigée par B. Vauquois, a stimulé d'autres projets de recherche. Certains, comme le canadien TAUM-MÉTÉO et l'américain METAL, fonctionnent déjà. D'autres sont encore au stade expérimental, i.e. SUSY en Allemagne et EUROTRA, qui est un projet européen commun. TAUM, un acronyme de Traduction Automatique de l'Université de Montréal a été créé par le gouvernement canadien en 1965. Il fonctionne pour traduire des prévisions météorologiques de l'anglais en français depuis 1977 et du français en l'anglais depuis 1989. TAUM-MÉTÉO, l'un des systèmes les plus anciens et efficaces, effectue à la fois une analyse syntaxique et une analyse sémantique efficace à 80%. Le fait est dû à la linguistique restreinte et clairement définie des prévisions météorologiques. Il fonctionne avec seulement 1500 entrées lexicales, dont beaucoup sont des noms propres. Bref, il accomplit des tâches répétitives limitées, traduisant des textes très spécifiques, avec un vocabulaire limité (bien qu'il utilise un dictionnaire exhaustif) et une syntaxe stéréotypée.
La stratégie du langage pivot repose sur l'idée de créer une représentation du texte indépendante de toute langue particulière. Cette représentation fonctionne comme un axe central neutre et universel, distinct à la fois de la langue source et de la langue cible. En théorie, cette méthode réduit le processus de traduction automatique à deux étapes seulement: l'analyse et la génération (Wilks, 2009). L'analyse du texte source conduit à une représentation conceptuelle dont les différentes composantes sont appariées par le module de génération à leurs équivalents dans la langue cible. La recherche sur cette stratégie est liée à l'intelligence artificielle et à la représentation des connaissances. Les systèmes basés sur l'idée d'un langage pivot ne visent pas la traduction directe, mais plutôt la reformulation du texte source à partir des informations essentielles. À l'heure actuelle, les stratégies de transfert et de langage pivot génèrent le plus de recherches dans le domaine de la traduction automatique. En ce qui concerne la stratégie du langage pivot, il convient de mentionner le projet néerlandais DLT (Distributed Language Translation, 1985-1990), qui utilisait l'espéranto comme langue pivot dans la traduction sur 12 langues européennes.
Il convient de reprendre un peu et dire encore une fois que les systèmes ne fonctionnent dans une sphère strictement définie, comme c'est le cas avec TAUM-MÉTÉO, la traduction automatique n'offre en aucun cas un produit fini (http://www.primavista.ru/rus/catalog/mashinniy_perevod). Comme l'explique Christian Boitet, directeur de GETA (Grenoble) dans une interview dans laquelle il résume les aspects les plus importants de la TA, il permet aux traducteurs de se concentrer sur la production d'un texte cible de qualité.
1.3.2 Traduction basée sur des corpus de textes
La TA statistique
La traduction automatique statistique (TAS) est un paradigme de traduction automatique où les traductions sont générées sur la base de modèles statistiques dont les paramètres sont dérivés de l'analyse de corpus de texte bilingues. L'approche statistique est différente de celle basée sur des règles ainsi que de la traduction automatique basée sur des exemples.
Les premières idées de traduction automatique statistique ont été introduites par Warren Weaver en 1949 y compris les idées d'application de la théorie de l'information de Claude Shannon. La traduction automatique statistique a été réintroduite à la fin des années 1980 et au début des années 1990 par des chercheurs du Centre de recherche Thomas J. Watson et a contribué au regain d'intérêt pour la traduction automatique ces dernières années (http://www.rriai.org.ru/statisticheskiy-mashinnyiy-perevod.html). De nos jours, c'est de loin la méthode de traduction automatique la plus étudiée.
La TAS traite la traduction comme un problème d'apprentissage automatique. Cela signifie que nous appliquons un algorithme d'apprentissage à un grand corps de texte déjà traduit, connu sous le nom de corpus parallèle, texte parallèle, bitexte ou multitexte. L'apprenant est alors capable de traduire des phrases auparavant non vues. Avec des outils de la TAS et assez de textes parallèles, nous pouvons construire un système MT pour une nouvelle paire de langues dans un délai très court.
Formellement, notre tâche est de prendre une séquence de signes dans la langue source avec le vocabulaire VF, et de le transformer en une séquence de signes dans la langue cible avec le vocabulaire VE. Nous supposerons que les signes sont des mots et que les séquences sont des phrases. Les langues agglutinantes telles que l'allemand et l'inuktitut, ou les langues sans frontières de mots clairement marquées, comme le chinois, peuvent nécessiter un prétraitement spécial. La considération la plus importante est que toutes les données sont pré-traitées de manière cohérente car les systèmes statistiques sont sensibles aux divergences (Sysoeva, 2013). Il n'y a souvent pas de traitement spécial des variantes morphologiques - par exemple, les mots anglais « translate » et « translation » sont traités comme des signes indépendants, indivisibles. Par conséquent, il est possible que la taille des vocabulaires VE et VF atteigne des dizaines ou des centaines de milliers de signes, voire des millions dans le cas des langues morphologiquement complexes telles que l'arabe.
La TA basée sur des exemples
L'idée fondamentale de la traduction automatique basée sur des exemples (EBMT : Example Based Machine Translation) est de réutiliser des exemples de traductions déjà existantes comme base pour une nouvelle traduction(Europe et trasuction, 1996). Le processus de EBMT est décomposé en trois étapes:
1) Appariement
2) Alignement
3) Recombinaison
Étape d'appariement
La tâche de cette étape consiste à trouver des exemples qui vont contribuer à la traduction sur la base de leur similarité avec l'entrée. La manière dont la phase d'appariement doit être implémentée est basée sur la manière de stockage des exemples. Dans des anciens systèmes, les exemples étaient stockés sous forme de structures arborescentes annotées et les constituants dans les deux langues étaient connectés par des liens explicites. L'entrée à mettre en correspondance est analysée à l'aide de la grammaire utilisée pour créer l'exemple de base de données et former un arbre. Cet arbre est comparé aux arbres de la base de données d'exemple.
L'entrée et les exemples peuvent être appariés en comparant caractère par caractère. Ce processus est appelé « la comparaison des séquences ». L'alignement et la recombinaison seront difficiles à l'application de cette approche. Des exemples peuvent être annotés avec des marqueurs de parties de discours. Plusieurs exemples simples peuvent être combinés en un seul exemple plus général contenant des variables. Les exemples doivent être analysés pour voir s'ils conviennent à un traitement ultérieur. Des exemples qui se chevauchent ou sont contradictoires devraient être traités correctement.
Étape d'alignement
L'alignement est utilisé pour identifier les parties de la traduction correspondante qui doivent être réutilisées. L'alignement est effectué en aide d'un dictionnaire bilingue ou en compaison avec d'autres exemples. Le processus d'alignement de la traduction automatique basée sur des exemples doit être automatisé.
Étape de recombinaison
La recombinaison est la phase finale de l'approche de la traduction automatique basée sur des exemples. La recombinaison s'assure que les parties réutilisées et identifiées lors de l'alignement se regroupent correctement. Au cours de cette étape nous prenons des phrases de la langue source et un ensemble de modèles de traduction comme entrées et nous produisons des phrases sur la langue cible en tant que sorties. La réussite de la stratégie de recombinaison dépend des phases précédentes d'appariement et d'alignement.
La TA basée sur des réseaux de neurones artificiels
La traduction automatique neuronale (NMT - Neural machine translation) est une approche très recente de la traduction automatique qui utilise un réseau vaste de neurones artificiels pour prédire la probabilité d'une séquence de mots, généralement en modélisant des phrases entières dans un modèle intégral (Êàëèíèí, 2017).La TA neurale profonde est une extension de la TA neuronale. Les deux utilisent un réseau vaste de neurones ; la différence est que la TA neurale profonde traite plusieurs couches de réseau de neurones au lieu d'une seule (https://vc.ru/32616-mashinnyy-perevod-ot-holodnoy-voyny-do-glubokogo-obucheniya).
NMT est née des approches statistiques et ne differe pas essentiellement de ce qui a été traditionnellement fait dans la traduction automatique statistique. Son départ principal est l'utilisation de représentations vectorielles pour les mots (Êàëèíèí, 2017, p. 2). La structure des modèles est plus simple que dans les modèles basés sur des phrases. Il n'existe pas de modèle de langue, de modèle de traduction et de modèle de réorganisation séparés, mais seulement un modèle avec une séquence unique qui prédit des mots. Cependant, cette prédiction de séquence est conditionnée par la phrase source entière et la totalité de la séquence cible déjà produite.
En 2016, la plupart des meilleurs systèmes de la TA ont intégré des réseaux de neurones dans leurs services de traduction, tels que : Google, Microsoft, Yandex (https://yandex.com/company/blog/one-model-is-better-than-two-yu-yandex-translate-launches-a-hybrid-machine-translation-system/). Google par exemple utilise Google Neural Machine Translation (GNMT). GNMT améliore la qualité de la traduction en appliquant une méthode de traduction automatique basée sur des exemples (EBMT) dans laquelle le système apprend à partir de plusieurs exemples. L'architecture proposée par GNMT pour l'apprentissage du système a d'abord été testée sur plus d'une centaine de langues prises en charge par Google Translate. En appliquant le principe de bout en bout, le système apprend au fil du temps à créer de meilleures traductions, plus naturelles. GNMT est capable de traduire des phrases entières à la fois, plutôt que de petits morceaux. Le réseau de la GNMT peut entreprendre une traduction automatique interlinguale en codant la sémantiquedelaphrase,plutôtqu'enmémorisant des traductions d'une phrase à l'autre.
1.4 La pré-édition et la post-édition
Les technologies de la pré et de la post-édition de la traduction automatique sont l'un des plus récents axes de recherche. Au cours de la dernière décennie, la TA a progressé de manière significative et est donc devenue très répandue dans l'industrie de la traduction en tant que solution pour répondre à la demande croissante, aux délais plus courts et pour réduire le coût de la traduction (Áåëÿåâà, 2016). Néanmoins, la qualité produite par la plupart des programmes est encore loin d'être parfaite. Pour optimiser l'efficacité de la TA et obtenir une traduction finale de haute qualité, deux processus complémentaires sont généralement inclus dans le travail: la pré-édition et la post-édition.
1.4.1 La pré-édition
Le processus de la pré-édition sert à réviser le document avant qu'il ne passe par la TA : nous modifions le texte-source pour améliorer la qualité de la future traduction. Une bonne pré-édition peut réduire, voire éliminer, la nécessité de la post-édition. La ressource idéale pour la pré-édition est un éditeur spécialisé capable d'analyser un bloc de texte du point de vue d'un moteur de la TA et d'anticiper les erreurs potentielles de sortie. Le travail de pré-éditeur peut consister par exemple à réduire la longueur de la phrase, en évitant les structures syntaxiques complexes ou ambiguës, en assurant la cohérence des termes et en utilisant des articles. D'habitude, l'éditeur se sert des outils de révision automatisés, tels que la correction orthographique du texte source par rapport à un glossaire spécifique de projet, ainsi que des outils avancés de vérification grammaticale. En outre, il/elle peut marquer les éléments du texte-source qui ne doivent pas être traduits. Ces techniques de pré-édition sont également utiles pour les projets de traduction humaine. De nombreuses organisations qui développent un vaste matériel mono- et multilingue intègrent des processus similaires dans leurs meilleures pratiques de localisation. Écrire de cette façon dès le départ offre de nombreux effets positifs en aval sur la qualité et la productivité globales.
Il s'avère nécessaire maintenant de citer les changements possibles qu'on peut apporter à un texte source :
Changements syntaxiques :
1) Utiliser des phrases courtes et simples, couper en fragments des phrases longues et complexes. Respecter la structure grammaticale : sujet - verbe - objet.
2) Veiller à la ponctuation correcte.
Changements lexicaux :
1) Éviter l'ambiguïté en recherchant toutes les significations possibles lors de la pré-édition.
2) Déchiffer les abbreviations.
3) Faire attention aux chiffres et lettres (quantités et mesures, dates, années, monnaies ... etc.)
4) Supprimer les mots supplémentaires L'édition des phrases non essentielles et de mots supplémentaires facilitera la traduction et la rendra plus précise.
5) Ne pas supprimer les mots nécessaires et ne pas aller trop loin dans l'édition. Garder les articles, les prépositions, les pronoms et ainsi de suite où la machine peut les trouver.
Ïîäîáíûå äîêóìåíòû
Post-structuralist movement in France; peculiarities of it: emergence, meaning, comparison with structuralism. Major works and concepts: Derrida’s Deconstruction; Roland Barthes – "The Death of the Author"; Michel Foucault and post-structuralism.
ýññå [31,3 K], äîáàâëåí 29.03.2012D’etudier les recherches grammaticales et semantiques sur le pronom "on" dans la linguistique moderne. Etudier les definitions et cas particuliers du pronom "on". Quelques descriptions semantiques. Etudier Une approche contextuelle de l’analyse.
äèïëîìíàÿ ðàáîòà [138,3 K], äîáàâëåí 11.05.2014Liens de la linguistique textuelle avec d’autres sciences. Objet de la linguistique textuelle. Limites de l’analyse linguistique du sens. Notion de texte dans la linguistique textuelle. Texte litteraire. Probleme definitoire du texte.
êóðñîâàÿ ðàáîòà [67,8 K], äîáàâëåí 28.01.2009Understanding of the organization and its structure. Any organization has its structure. Organizational structure is the way in which the interrelated groups of the organization are constructed. Development of management on the post-Soviet area.
ðåôåðàò [24,7 K], äîáàâëåí 18.01.2009Mesures non tarifaires: la notion et l'essence. Les definitions principaux et types des mesures non tarifaires. Les obstacles non tarifaires dans le commerce exterieur. Mesures non tarifaires a l’exemple du commerce des produits agricoles.
ðåôåðàò [630,0 K], äîáàâëåí 18.04.2008Comparison of understanding phraseology in English, American and post-Soviet vocabulary. Features classification idiomatic expressions in different languages. The analysis of idiomatic expressions denoting human appearance in the English language.
êóðñîâàÿ ðàáîòà [30,9 K], äîáàâëåí 01.03.2015Ïîëèòè÷åñêàÿ êîììóíèêàöèÿ â ïðàêòèêå ñðåäñòâ ìàññîâîé èíôîðìàöèè. Îñâåùåíèå âíóòðèïîëèòè÷åñêèõ êîíôëèêòîâ âî ôðàíöóçñêîé ïðåññå (æóðíàë "Marianne", ãàçåòû "Le Figaro", "Le Monde") è ïðåññå Èçðàèëÿ (ãàçåòû "Israel Hayom", "Haaretz" è "The Jerusalem Post").
äèïëîìíàÿ ðàáîòà [241,5 K], äîáàâëåí 30.11.2017The basis of the study of economic systems of the countries of the world. Description of the administrative command system. Estimation of the market system and its implementation by the countries. Post-industrial society as a modern economic system.
ðåôåðàò [30,3 K], äîáàâëåí 24.03.2014Biography. Physics in Rome. Nobel Prize and The Manhattan Project. Post-War Work. Personal life. Fermi's golden rule. Discovery of fermium. Facts. History. Binary compaunds. Basic factsIsotope. Notable characteristics.
êóðñîâàÿ ðàáîòà [53,9 K], äîáàâëåí 19.12.2007The notion of sentence and novels formulated as sentences. The problem of classification of sentences, the principles of classification, five points of difference. Types of sentences according to types of communication. The simple sentence and its types.
êóðñîâàÿ ðàáîòà [25,6 K], äîáàâëåí 07.07.2009