OpenNMT représente une avancée significative dans le domaine de la traduction automatique neuronale. Lancé en décembre 2016 par le groupe Harvard NLP et SYSTRAN, ce projet a rapidement trouvé sa place dans diverses applications de recherche et industrielles. Aujourd'hui, il est maintenu par SYSTRAN et Ubiqus, continuant ainsi à évoluer et à s'adapter aux besoins changeants du secteur.
L'écosystème OpenNMT se distingue par ses deux principales implémentations, chacune basée sur un framework de deep learning populaire : OpenNMT-py et OpenNMT-tf. OpenNMT-py, construit sur PyTorch, est reconnu pour sa convivialité et sa multimodalité, offrant une documentation complète et des modèles pré-entraînés pour faciliter son adoption. OpenNMT-tf, quant à lui, repose sur TensorFlow, se vantant de sa modularité et de sa stabilité, avec également une documentation et des modèles pré-entraînés à disposition.
Ces deux implémentations partagent des objectifs communs : des architectures de modèles hautement configurables, des procédures d'entraînement efficaces, et des capacités de service de modèles optimisées pour des applications réelles. Elles s'étendent également à d'autres tâches telles que la génération de texte, l'étiquetage, la synthèse, la conversion d'image en texte, et la transcription de la parole en texte.
En plus de ces implémentations, l'écosystème OpenNMT comprend des projets complémentaires pour couvrir l'intégralité du flux de travail de la traduction automatique neuronale. Parmi eux, CTranslate2 se distingue comme un moteur d'inférence efficace pour les modèles Transformer sur CPU et GPU, tandis que Tokenizer offre une bibliothèque de tokenisation de texte rapide et personnalisable, avec le support de BPE et SentencePiece.
OpenNMT est un projet open source sous licence MIT, encourageant ainsi la collaboration et l'innovation continue dans le domaine de la traduction automatique neuronale.