Le projet TraLaLaM

TraLaLaM – Translating with Large Language Models​

Le projet TraLaLaM, soutenu par l’Agence Nationale de la Recherche (ANR) dans le cadre de l’appel 2023 sur les très grands modèles de langue (LLM), explore les potentialités des modèles pour la traduction automatique. Entraînés sur des corpus multilingues de grande envergure, les LLM offrent des solutions innovantes pour gérer des contextes étendus et des domaines de traduction où les données d’apprentissage parallèles sont rares ou inexistantes.

Porté par l’entreprise Systran by ChapsVision, le projet TraLaLaM bénéficie également de la collaboration de l’ISIR de Sorbonne Université et CNRS et de l’équipe-projet ALMAnaCH du centre Inria de Paris. Cette synergie entre le secteur privé et la recherche académique enrichit les compétences mises en œuvre pour atteindre les objectifs du projet.

TraLaLaM se concentre sur deux questions principales :

  1. Comment les informations contextuelles peuvent-elles être efficacement intégrées via des prompts ?
  2. Peut-on affiner les LLM pour des scénarios à faibles ressources sans recourir à des données parallèles ?
 

Le projet vise à analyser en profondeur la pertinence des LLM pour des cas d’usage industriels, en étudiant des scénarios d’adaptation au domaine et en intégrant des données terminologiques ou des mémoires de traduction. Un autre objectif est de développer un système de traduction automatique pour toutes les langues de France, en utilisant des LLM monolingues avec peu ou pas de données parallèles.

LES PARTENAIRES :

ISIR/MLIA (Sorbonne Université et CNRS) :

Spécialisé en apprentissage artificiel et analyse de données sémantiques.​

ALMAnaCH (Inria) :

Recherche en traitement automatique des langues et humanités numériques.​

SYSTRAN by ChapsVision :

Leader en technologies de traduction automatique depuis 1968.​

Financement : le projet TraLaLaM est financé par l’Agence Nationale de la Recherche (ANR) :  Le numéro d’acte attributif est : PROJET N° ANR-23-IAS1-0006.