Visionnez la démo

Grands modèles de langage et traduction automatique : L’ère de l’hyper-personnalisation

LLM – En-tête TA

Roeland Hofkens Roeland HofkensChief Product & Technology Officer, LanguageWire

Les grands modèles de langage (LLM) ont pris le monde d’assaut.

Certains de ces modèles, tels que le GPT-4 d’OpenAI et le PaLM2 de Google, ont été formés sur un ensemble de données multilingues et devraient, du moins en théorie, être très performants pour les tâches de traduction automatique.

Mais est-ce vraiment le cas ? Comment exploiter tout le potentiel des grands modèles de langage pour la traduction automatique ? Dans cette présentation technique approfondie, nous examinerons comment les LLM travaillent dans le cadre de la traduction automatique et comment ils peuvent être intégrés dans un système de gestion des traductions (TMS).

Modèles actuels de traduction automatique

La plupart des outils de traduction automatique commerciaux actuels, tels que Google Traduction, sont basés sur des modèles neuronaux dotés d’une architecture de transformateur. Ces modèles sont spécialement conçus pour une seule tâche : la traduction automatique. Prêts à l’emploi, ils sont déjà très performants dans les tâches nécessaires à la traduction de contenu générique. Cependant, dans des contextes professionnels spécialisés, ils peuvent passer à côté du vocabulaire adéquat ou ne pas utiliser un style optimal.

Il est donc utile de personnaliser ces modèles avec des données d’entreprise supplémentaires en les formant à reconnaître vos termes et expressions personnalisés. Grâce à diverses méthodes de personnalisation, le modèle « apprend » à utiliser le ton et la terminologie de votre entreprise, ce qui permet d’obtenir de meilleurs résultats de traduction automatique.

Grands modèles de langage (LLM)

Les grands modèles de langage sont généralement basés sur des architectures de transformateur. Cependant, par rapport aux modèles de traduction automatique neuronale (NMT) présentés dans la section précédente, ils sont formés sur des corpus de texte beaucoup plus importants et contiennent plus de paramètres de modèle. Les LLM contiennent des milliards de paramètres contre quelques centaines de millions pour les modèles NMT bilingues à tâche unique. Cela rend les modèles LLM plus flexibles et « plus intelligents » lorsqu’il s’agit d’interpréter les instructions de l’utilisateur ou les « invites ». Cette nouvelle technologie ouvre de nombreuses nouvelles possibilités en termes de personnalisation des modèles avec des données d’entreprise. En raison de la puissance de cette approche, je préfère parler en termes de « personnalisation » plutôt que de « customisation ». Découvrons comment fonctionne cette personnalisation.

Une double approche de la personnalisation

Lors de l’utilisation des LLM, il existe essentiellement deux approches pour affiner le modèle, afin qu’il produise une meilleure qualité au moment de l’inférence, c’est-à-dire au moment où il génère sa réponse.

  • Régler les paramètres (ou « poids ») du modèle avant de l’utiliser afin qu’il apprenne à s’adapter à vos besoins. Il s’agit d’une opération gourmande en ressources qui nécessite que les ingénieurs en IA préparent une version sur mesure du modèle.
  • Utiliser l’apprentissage contextuel. Il s’agit d’une méthode plus simple qui informe le modèle de vos données et de vos préférences lorsqu’il génère ses réponses par le biais d’une invite spécialement conçue.

Examinons tout d’abord le réglage des paramètres.

La mise à jour des paramètres d’un LLM peut être une tâche difficile. N’oubliez pas que même les petits LLM ont des milliards de paramètres. Leur mise à jour est une tâche très coûteuse sur le plan informatique, qui est généralement hors de portée pour un consommateur moyen, car le coût et la complexité de cette opération sont tout simplement trop élevés.

En ce qui concerne la traduction automatique, nous commencerons généralement par un modèle LLM adapté aux instructions. Il s’agit d’un modèle qui a été affiné pour être plus utile et pour suivre les instructions, plutôt que de simplement prédire les mots suivants. Après réglage, le modèle sera plus performant pour une variété de tâches telles que la synthèse, la classification et la traduction automatique. Nous vous fournirons plus d’informations sur le modèle à choisir dans les prochains articles de cette série.

Les LLM adaptés aux instructions constituent un bon point de départ pour d’autres optimisations spécifiques au client. À l’aide d’une approche appelée Parameter Efficient Fine-Tuning (PEFT), nous pouvons affiner un modèle formé avec les données des clients plus rapidement et de manière plus rentable.

Chez LanguageWire, notre méthode PEFT préférée est LoRA ( Low-Rank Adaption), ce qui implique généralement une mise à jour d’environ 1,4 à 2,0 % des poids du modèle. Cela signifie que l’effort de personnalisation est raisonnable, mais aussi étonnamment efficace. Comme vous pouvez le voir dans le tableau ci-dessous, les auteurs de l’article sur LoRA concluent que LoRA peut s’avérer encore plus efficace que le réglage complet de tous les paramètres du modèle !

Tableau LLM et TA

Pour obtenir les meilleurs résultats avec cette méthode, nous devons avoir accès à une grande quantité de données de formation de haute qualité avec des textes sources et cibles correspondants. Si vous avez déjà constitué une importante mémoire de traduction, vous pouvez probablement l’utiliser à cette fin.  L’équipe d’IA de LanguageWire travaille en permanence à l’identification de la taille idéale de la mémoire de traduction pour le réglage LoRA.

Passons maintenant à la deuxième approche, l’apprentissage contextuel ou « few-shot learning ».

L’apprentissage contextuel est une méthode où le modèle apprend en direct à partir d’un petit nombre d’exemples présentés par une invite spécialement conçue. C’est ce que l’on appelle également « few-shot learning ».

Dans le cadre de la traduction automatique, le few-shot learning fonctionne de la manière suivante :

  1. Le système analyse le contenu source entrant. Il s’agit généralement d’une ou plusieurs phrases ou segments.
  2. Le système essaie de trouver des exemples de fragments de contenu source similaires et leurs traductions respectives.
  3. Le système crée une invite qui inclut le contenu source à traduire et les exemples des traductions précédentes.
  4. Le LLM apprend en direct à partir des exemples et crée une traduction de haute qualité du contenu source.

Le few-shot learning pour TA a un impact positif sur la fluidité, le ton et le respect de la terminologie. Elle nécessite moins d’exemples, trois à cinq au maximum. En effet, l’efficacité ne s’améliore pas avec des échantillons de plus grande taille et il n’est donc pas avantageux d’inclure l’ensemble de votre mémoire de traduction en une seule invite. Des expériences ont montré que les LLM ne gèrent pas très bien les contextes d’invite de grande taille et que la qualité des résultats peut même se détériorer !

C’est en combinant les avantages de LoRA et du few-shot learning que nous pouvons mettre en œuvre des optimisations performantes dans les grands modèles de langage, ce qui permet d’obtenir une traduction automatique hyper-personnalisée et de qualité supérieure.

Vos données linguistiques sont la clé !

Aucune de ces méthodes ne fonctionnerait sans un large ensemble de corpus de textes bilingues de haute qualité et à jour dans différentes combinaisons de langues. Vos mémoires de traduction constituent une source idéale pour cet ensemble de données.
Cependant, avant de pouvoir l’utiliser, vous devez tenir compte de plusieurs aspects importants :

  • La qualité. Toutes les données doivent être de qualité supérieure, de préférence traduites par des traducteurs humains qualifiés et vérifiées dans le cadre d’un flux de travail à quatre yeux, c’est-à-dire approuvées par deux personnes.
  • La pertinence. Toutes les données de votre mémoire de traduction ne sont pas forcément pertinentes. Certaines données peuvent être anciennes, non pertinentes ou faire référence à des produits retirés. Il est important de nettoyer régulièrement votre mémoire de traduction pour supprimer les éléments non pertinents.
  • Le volume. Vous aurez besoin d’un certain volume de données pour vous assurer que le réglage fonctionne correctement. Plus vous en avez, mieux c’est si la qualité a été maintenue.

Si vous utilisez la plateforme LanguageWire, le module automatisé de gestion des mémoires de traduction s’occupe de ces aspects pour vous et aucune action manuelle n’est nécessaire.

Si vous disposez d’une mémoire de traduction externe que vous souhaitez utiliser avec notre plateforme et nos services de traduction automatique, nos ingénieurs peuvent vous aider. Les ingénieurs de LanguageWire ont créé des API d’importation, des scripts de nettoyage et des outils d’évaluation de la qualité linguistique pour vous aider à tirer le meilleur parti de votre atout linguistique le plus précieux.

La solution LanguageWire

Comment réunir tous ces éléments pour un projet de traduction classique ? Prenons un exemple.

LanguageWire propose une solution entièrement intégrée à notre écosystème technologique. La figure 1 ci-dessous illustre les principales étapes du processus.

Dans cet exemple, nous avons pris un flux de travail simple dans lequel un client souhaite traduire des fichiers PDF ou Office. L’utilisateur télécharge simplement les fichiers de contenu à l’aide du portail de projets de LanguageWire. À partir de là, tout est orchestré automatiquement :

  • Les données entrantes sont analysées et transformées en un fichier XLIFF.
  • Le système crée une pré-traduction basée sur la correspondance de la mémoire de traduction et la traduction automatique.
  • Notre équipe d’experts humains assure la post-édition et la révision.
  • À l’étape suivante, le fichier XLIFF traduit est réassemblé en fichier de sortie, préservant ainsi la mise en page.
  • Enfin, le client peut télécharger les fichiers traduits depuis le portail.

FIGURE 1 : Résultat d’un projet de traduction simple sur la plateforme LanguageWire existante

FIGURE 1 : Résultat d’un projet de traduction simple sur la plateforme LanguageWire existante

Dans l’exemple 2, nous nous concentrons sur l’étape de pré-traduction utilisant la traduction automatique basée sur la technologie LLM. Comme nous pouvons le voir dans la figure 2 ci-dessous, les données linguistiques du client jouent un rôle central.

  • Pour chaque segment de texte, le système LanguageWire trouve les « k plus proches voisins » dans la mémoire de traduction. Ces résultats bilingues sont utilisés comme base d’une invite de few-shot learning spéciale transmise à l’API de traduction automatique du LLM.
  • Sur la couche du modèle, nous avons chargé un module LoRA qui personnalise le LLM en fonction du ton et du vocabulaire du client. Là encore, cela repose sur un ensemble de données compilées à partir de la mémoire de traduction. Nous appliquons cet ensemble de données au réglage PEFT avec LoRA pour créer de nouveaux poids de modèle qui sont chargés dans le contexte du modèle. Ce réglage peut être effectué régulièrement, par exemple, toutes les deux semaines, pour refléter les nouvelles mises à jour et le nouveau contenu dans la MT.

FIGURE 2 : Exemple de traduction utilisant un grand modèle de langage avec une combinaison de personnalisations LoRA et d’invites d’apprentissage contextuelles optimisées.

Schéma d’un projet de traduction LanguageWire

Lorsque notre invite spécialement conçue est traitée par le LLM, les poids personnalisés du module LoRA contribuent à un résultat de traduction automatique de qualité supérieure. Une fois cette étape terminée, le résultat passe automatiquement à l’étape suivante du processus. En général, il s’agit d’une tâche de post-édition avec un expert humain pour une qualité finale maximale.

Qu’est-ce que cela signifie pour nos clients ?

En résumé : nos clients peuvent s’attendre à une traduction automatique encore plus performante. La TA peut s’adapter automatiquement à différents contextes, par exemple à différents secteurs d’activité, et s’aligner sur le ton attendu et le vocabulaire propre à ce secteur.

Non seulement cela réduira les coûts de post-édition, mais cela augmentera également la vitesse de livraison des traductions. Cela ouvrira également un champ d’application plus large pour utiliser directement les résultats de la TA, sans que des experts humains n’interviennent dans le processus.

Qu’est-ce que LanguageWire fait d’autre avec les LLM ?

Comme nous l’avons déjà dit, les grands modèles de langage sont très flexibles. L’équipe d’IA de LanguageWire étudie de nombreux autres domaines qui pourraient bénéficier de la technologie des LLM.

Nous menons actuellement des recherches sur les sujets suivants :

L’évaluation automatisée de la qualité linguistique. Le LLM pourrait vérifier la traduction d’un expert humain ou le résultat de la traduction automatique d’un autre modèle et donner une note de qualité. Cela pourrait réduire considérablement les coûts de révision. La technologie sous-jacente d’estimation de la qualité de la traduction automatique (MTQE) peut également être appliquée à d’autres cas d’utilisation.

Les assistants de création de contenu. À l’aide d’une combinaison de PEFT avec LoRA et de few-shot learning, nous pouvons personnaliser le modèle LLM pour qu’il se consacre aux tâches de création de contenu. Un client pourrait fournir des mots-clés et des métadonnées permettant au modèle de générer un texte qui utilise un ton et un vocabulaire personnalisés pour l’entreprise.

L’application d’une personnalisation supplémentaire du LLM avec des données provenant de bases terminologiques.

Et bien d’autres choses encore. Dans les semaines à venir, ne manquez pas les prochains articles sur l’IA et l’avenir des LLM chez LanguageWire.

Comment pouvons-nous vous aider ?

Ouvrez-vous la voie vers une gestion efficace et harmonieuse de vos contenus en différentes langues ! Faites-nous part de vos besoins et nous créerons la solution sur mesure idéale pour votre entreprise.