Семинары
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Календарь
Поиск
Регистрация семинара

RSS
Ближайшие семинары




Стохастический анализ в задачах
8 октября 2016 г. 11:00–15:00, г. Москва, ауд.401 МЦНМО
 


Методы оптимизации для глубинных нейросетей

Д. А. Кропотов

Московский государственный университет имени М. В. Ломоносова, факультет вычислительной математики и кибернетики
Дополнительные материалы:
Adobe PDF 3.6 Mb

Количество просмотров:
Эта страница:506
Материалы:71
Youtube:



Аннотация: Задача оптимизации, возникающая при обучении глубинных нейросетей, является на сегодняшний день одной из наиболее сложных и вместе с тем сверх актуальных задач в области оптимизации для машинного обучения. Несмотря на существенный прогресс методов стохастической оптимизации за последнее время, многие практики по-прежнему отдают предпочтение здесь стохастическому градиентному спуску (SGD). В докладе планируется обсудить некоторые недавние разработки в этой области, которые могут стать альтернативой простому SGD. Среди них такие подходы как метод натурального градиента с кронекеровским приближением матрицы Фишера (K-FAC) и Normalization Propagation.
Литература:
http://arxiv.org/abs/1503.05671
http://arxiv.org/abs/1602.01407
http://arxiv.org/pdf/1603.01431v6.pdf

Дополнительные материалы: kfac_presentation.pdf (3.6 Mb)
 
  Обратная связь:
 Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024