Информатика и её применения
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Импакт-фактор

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Информ. и её примен.:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Информатика и её применения, 2019, том 13, выпуск 3, страницы 90–96
DOI: https://doi.org/10.14357/19922264190313
(Mi ia614)
 

Эта публикация цитируется в 2 научных статьях (всего в 2 статьях)

Архитектура системы нейронного машинного перевода

В. А. Нуриев

Институт проблем информатики Федерального исследовательского центра «Информатика и управление» Российской академии наук
Список литературы:
Аннотация: Описывается архитектура системы нейронного машинного перевода. Актуальность объекта исследования обусловлена тем, что сейчас доминирующей парадигмой в области автоматизированного перевода стал машинный перевод с использованием искусственных нейронных сетей. Качество нейронного перевода в значительной мере превосходит результаты, обеспечиваемые предыдущим поколением машинных переводчиков, однако и оно все еще далеко отстоит от качества переводов, выполненных человеком-экспертом. Для его улучшения необходимо более четкое понимание устройства системы нейронного машинного перевода. В общем случае архитектура системы нейронного машинного перевода включает в себя две рекуррентные нейронные сети (РНС), одна из которых ответственна за обработку входной текстовой последовательности, а другая — за формирование выходного текста-перевода. Часто в систему также встраивается механизм внимания, позволяющий оптимизировать работу с протяженными входными последовательностями. Архитектура системы описывается на примере переводного сервиса Google (translate.google.com, Google's Neural Machine Translation system, GNMT), так как он стал одним из самых востребованных в мире на данный момент: ежедневно сервис обрабатывает около 143 млрд слов более чем на 100 языках. В заключение формулируются некоторые перспективы исследования.
Ключевые слова: нейронный машинный перевод, искусственные нейронные сети, рекуррентные нейронные сети, механизм внимания, архитектура системы машинного перевода, Google's Neural Machine Translation system.
Поступила в редакцию: 30.06.2019
Тип публикации: Статья
Образец цитирования: В. А. Нуриев, “Архитектура системы нейронного машинного перевода”, Информ. и её примен., 13:3 (2019), 90–96
Цитирование в формате AMSBIB
\RBibitem{Nur19}
\by В.~А.~Нуриев
\paper Архитектура системы нейронного машинного перевода
\jour Информ. и её примен.
\yr 2019
\vol 13
\issue 3
\pages 90--96
\mathnet{http://mi.mathnet.ru/ia614}
\crossref{https://doi.org/10.14357/19922264190313}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/ia614
  • https://www.mathnet.ru/rus/ia/v13/i3/p90
  • Эта публикация цитируется в следующих 2 статьяx:
    Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Информатика и её применения
    Статистика просмотров:
    Страница аннотации:836
    PDF полного текста:537
    Список литературы:48
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024