Neural network model of automated translation
Keywords:
automated translation, neural network model, encoder-decoder, recurrent neural networks, deep learning, machine learning, reinforcement learning, parallel texts, PythonAbstract
The article discusses approaches to the implementation of automated translation systems, modern examples of such systems and the principles of their work. The actual problems of automated translation are analyzed, it is shown that neural network models have advantages. Implemented neural network model of automated translation using recurrent neural networks. The programming language Python was used to develop and train the neural network. Model training and the described experiments were performed on the WMT data corpus. The implemented model has an encoder-decoder architecture.
References
MASSIVE: A 1M-Example Multilingual Natural Language Understanding Dataset with 51 Typologically-Diverse Languages – Jack FitzGerald, Christopher Hench, Charith Peris, Scott Mackie, Kay Rottmann, Ana Sanchez, Aaron Nash, Liam Urbach, Vishesh Kakarala, Richa Singh, Swetha Ranganath, Laurie Crist, Misha Britan, Wouter Leeuwis, Gokhan Tur, Prem Natarajan [Электронный ресурс]. – Режим доступа: https://arxiv.org/abs/2204.08582
WikiMatrix: Mining 135M Parallel Sentences in 1620 Language Pairs from Wikipedia –вы, Vishrav Chaudhary, Shuo Sun, Hongyu Gong, Francisco Guzmán [Электронный ресурс]. – Режим доступа: https://arxiv.org/abs/1907.05791
Findings of the 2020 Conference on Machine Translation (WMT20) – Ondřej Bojar, Christian Federmann, Mark Fishel, Yvette Graham, Barry Haddow, Philipp Koehn, and Christof Monz [Электронный ресурс]. – Режим доступа: https://www.statmt.org/wmt20/pdf/2020.wmt-1.pdf
Золушкин, Ю. А. Обработка естественного языка / Ю. А. Золушкин, Т. А. Васяева, А. А. Малицкая // Информатика, управляющие системы, математическое и компьютерное моделирование (ИУСМКМ-2021): Материалы XII Международной научно-технической конференции в рамках VII Международного Научного форума Донецкой Народной Республики к 100-летию ДонНТУ, Донецк, 26–27 мая 2021 года. – Донецк: Донецкий национальный технический университет, 2021. – С. 71-78.
Разработка векторных представлений слов для нейросетевой языковой модели / Ю. А. Золушкин, Т. А. Васяева, Т. В. Мартыненко, Е. А. Шуватова // Информатика, управляющие системы, математическое и компьютерное моделирование (ИУСМКМ-2022): Материалы XIII Международной научно-технической конференции в рамках VIII Международного Научного форума Донецкой Народной Республики, Донецк, 25–26 мая 2022 года. – Донецк: Донецкий национальный технический университет, 2022. – С. 219-223.
Manaswi N.K. RNN and LSTM. In: Deep Learning with Applications Using Python. Apress, Berkeley, CARecurrent Neural Networks(2018)
Papineni, K.; Roukos, S.; Ward, T.; Zhu, W. J., BLEU: a method for automatic evaluation of machine translation (PDF). ACL-2002: 40th Annual meeting of the Association for Computational Linguistics. pp. 311–318.