Вестник Южно-Уральского государственного университета. Серия «Математическое моделирование и программирование»
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Правила для авторов
Загрузить рукопись

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Вестн. ЮУрГУ. Сер. Матем. моделирование и программирование:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Вестник Южно-Уральского государственного университета. Серия «Математическое моделирование и программирование», 2020, том 13, выпуск 1, страницы 118–128
DOI: https://doi.org/10.14529/mmp200109
(Mi vyuru535)
 

Эта публикация цитируется в 4 научных статьях (всего в 4 статьях)

Программирование

Special aspects of matrix operation implementations for low-precision neural network model on the Elbrus platform
[Особенности реализации матричных операций в малобитных нейросетевых моделях на платформе Эльбрус]

E. E. Limonovaab, M. I. Neiman-zadec, V. L. Arlazarova

a Federal Research Center “Computer Science and Control” of the Russian Academy of Sciences, Moscow, Russian Federation
b Smart Engines Service LLC, Moscow, Russian Federation
c JSC “MCST”, Moscow, Russian Federation
Список литературы:
Аннотация: В работе исследуется возможность эффективной реализации вычислений в малобитных нейросетевых моделях на платформе с VLIW архитектурой Эльбрус. Такие модели широко применяются на практике для повышения вычислительной эффективности распознавания и хорошо подходят для вычислителей таких архитектур, как x86 и ARM. В данной работе была рассмотрена 8-битная нейросетевых модель, в которой наиболее ресурсоемкой частью реализации является матричное умножение. В данной работе приведена эффективная реализация матричного умножения, учитывающая особенности архитектуры Эльбрус: наличие нескольких вычислительных каналов с различными арифметико-логическими устройствами, буфера предварительной подкачки массивов и собственного SIMD-расширения. Проведено теоретическое и экспериментальное сравнение вычислительной производительности малобитной и классической нейросетевых моделей, показавшее, что процессоры Эльбрус имеют гораздо больше возможностей для выполнения оптимальных вещественных вычислений и требуют разработки новых подходов к повышению вычислительной эффективности нейросетевых моделей.
Ключевые слова: малобитные нейронные сети, вычислительная эффективность, архитектура Эльбрус, матричные операции.
Поступила в редакцию: 07.10.2019
Тип публикации: Статья
УДК: 004.93
MSC: 68T10
Язык публикации: английский
Образец цитирования: E. E. Limonova, M. I. Neiman-zade, V. L. Arlazarov, “Special aspects of matrix operation implementations for low-precision neural network model on the Elbrus platform”, Вестн. ЮУрГУ. Сер. Матем. моделирование и программирование, 13:1 (2020), 118–128
Цитирование в формате AMSBIB
\RBibitem{LimNeiArl20}
\by E.~E.~Limonova, M.~I.~Neiman-zade, V.~L.~Arlazarov
\paper Special aspects of matrix operation implementations for low-precision neural network model on the Elbrus platform
\jour Вестн. ЮУрГУ. Сер. Матем. моделирование и программирование
\yr 2020
\vol 13
\issue 1
\pages 118--128
\mathnet{http://mi.mathnet.ru/vyuru535}
\crossref{https://doi.org/10.14529/mmp200109}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/vyuru535
  • https://www.mathnet.ru/rus/vyuru/v13/i1/p118
  • Эта публикация цитируется в следующих 4 статьяx:
    Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Статистика просмотров:
    Страница аннотации:130
    PDF полного текста:53
    Список литературы:20
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024