Вестник Удмуртского университета. Математика. Механика. Компьютерные науки
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Импакт-фактор

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Вестн. Удмуртск. ун-та. Матем. Мех. Компьют. науки:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Вестник Удмуртского университета. Математика. Механика. Компьютерные науки, 2018, том 28, выпуск 2, страницы 260–274
DOI: https://doi.org/10.20537/vm180212
(Mi vuu637)
 

КОМПЬЮТЕРНЫЕ НАУКИ

Neural networks with dynamical coefficients and adjustable connections on the basis of integrated backpropagation
[Нейронные сети с динамическими коэффициентами и перестраиваемыми связями на основе интегрированного обратного распространения]

M. N. Nazarov

National Research University of Electronic Technology, pl. Shokina, 1, Zelenograd, Moscow, 124498, Russia
Список литературы:
Аннотация: Рассматриваются искусственные нейроны, чьи весовые коэффициенты будут изменяться по специальному закону, основанному на интегрированном в их модели обратном распространении. Для этого коэффициенты погрешности обратного распространения вводятся в явном виде во все модели нейронов и осуществляется передача их значений вдоль межнейронных связей. В дополнение к этому вводится специальный тип нейронов с эталонными входами, которые будут выступать в качестве основного источника первичной оценки погрешности для всей нейронной сети. В последнюю очередь вводится контрольный сигнал для запуска обучения, который будет управлять процессом передачи коэффициентов погрешности и корректировкой весов нейронов. Для рекуррентных нейронных сетей демонстрируется как провести интеграцию обратного распространения во времени в их формализм с помощью стековой памяти для внешних входов нейронов. Дополнительно к этому рассматриваются примеры как формализовать в рамках данного подхода такие популярные нейронные сети, как сети долгой кратковременной памяти, сети радиально-базисных функций, многослойные перцептроны и сверточные нейронные сети. Основным практическим следствием данного подхода является возможность описания нейронных сетей с перестраиваемыми связями на основе интегрированного алгоритма обратного распространения.
Ключевые слова: искусственные нейроны, обратное распространение ошибки, адаптивная перестройка связей, рекуррентные нейронные сети.
Поступила в редакцию: 22.05.2018
Реферативные базы данных:
Тип публикации: Статья
УДК: 519.68, 007.5
MSC: 68T05, 62M86
Язык публикации: английский
Образец цитирования: M. N. Nazarov, “Neural networks with dynamical coefficients and adjustable connections on the basis of integrated backpropagation”, Вестн. Удмуртск. ун-та. Матем. Мех. Компьют. науки, 28:2 (2018), 260–274
Цитирование в формате AMSBIB
\RBibitem{Naz18}
\by M.~N.~Nazarov
\paper Neural networks with dynamical coefficients and adjustable connections on the basis of integrated backpropagation
\jour Вестн. Удмуртск. ун-та. Матем. Мех. Компьют. науки
\yr 2018
\vol 28
\issue 2
\pages 260--274
\mathnet{http://mi.mathnet.ru/vuu637}
\crossref{https://doi.org/10.20537/vm180212}
\isi{https://gateway.webofknowledge.com/gateway/Gateway.cgi?GWVersion=2&SrcApp=Publons&SrcAuth=Publons_CEL&DestLinkType=FullRecord&DestApp=WOS_CPL&KeyUT=000467764800012}
\elib{https://elibrary.ru/item.asp?id=35258693}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/vuu637
  • https://www.mathnet.ru/rus/vuu/v28/i2/p260
  • Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Вестник Удмуртского университета. Математика. Механика. Компьютерные науки
    Статистика просмотров:
    Страница аннотации:430
    PDF полного текста:174
    Список литературы:27
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024