Alexandre Bérard - Neural Machine Translation Architectures and Applications

12:00
Friday
15
Jun
2018
Organized by: 
Laurent Besacier
Speaker: 
Alexandre Bérard
Teams: 

 

Composition du jury :

 

  • Philippe Langlais - Professeur à l'Université de Montréal
  • Béatrice Daille - Professeur à l'Université de Nantes
  • François Yvon - Professeur à l'Université Paris Sud
  • Pascale Sébillot - Professeur à l'INSA de Rennes
  • Marc Tommasi - Professeur à l'Université de Lille
    Directeurs de thèse :
  • Olivier Pietquin - Professeur à l'Université de Lille
  • Laurent Besacier - Professeur à l'Université Grenoble Alpes

 

Cette thèse est centrée sur deux principaux objectifs : l'adaptation de techniques de traduction neuronale à de nouvelles tâches, et la reproduction de travaux de recherche existants.
Nos efforts pour la reproductibilité ont résulté en la création de deux ressources : MultiVec, un outil permettant l'utilisation de plusieurs techniques liées au word embeddings; ainsi qu'un outil proposant plusieurs modèles pour la traduction automatique et d’autres tâches similaires (par ex. post-édition automatique).
Nous travaillons ensuite sur plusieurs tâches liées à la traduction : la Traduction Automatique (TA), Traduction Automatique de la Parole, et la Post-Édition Automatique. Pour la tâche de TA, nous répliquons des travaux fondateurs basés sur les réseaux de neurones, et effectuons une étude sur des TED Talks, où nous avançons l'état de l'art.
La tâche suivante consiste à traduire la parole dans une langue vers le texte dans une autre langue. Dans cette thèse, nous nous concentrons sur le problème inexploré de traduction dite « end-to-end », qui ne passe pas par une transcription intermédiaire dans la langue source. Nous proposons le premier modèle end-to-end, et l'évaluons sur deux problèmes : la traduction de livres audio, et d'expressions de voyage. Notre tâche finale est la post-édition automatique, qui consiste à corriger les sorties d'un système de traduction dans un scénario « boîte noire », en apprenant à partir de données produites par des post-éditeurs humains. Nous étendons des résultats publiés dans le cadre des tâches de WMT 2016 et 2017, et proposons de nouveaux modèles pour la post-édition automatique dans un scénario avec peu de données.