Семинары
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Календарь
Поиск
Регистрация семинара

RSS
Ближайшие семинары




Общероссийский семинар по оптимизации им. Б.Т. Поляка
8 июля 2020 г. 19:00, Москва, Онлайн, пятница, 19:00
 


О сходимости методов типа стохастического градиентного спуска для выпуклых и невыпуклых задач оптимизации

Э. А. Горбунов
Дополнительные материалы:
Adobe PDF 13.1 Mb

Количество просмотров:
Эта страница:330
Материалы:122
Youtube:



Аннотация: Основная цель данного доклада — сделать обзор существующих стохастических методов оптимизации для решения задач минимизации суммы большого числа функций, которые возникают в машинном обучении. В первой части доклада будет представлен единообразный подход к анализу различных вариантов стохастического градиентного спуска (в том числе, методов редукции дисперсии) для сильно выпуклых и выпуклых задач. Затем мы перейдём к рассмотрению невыпуклых задач, обсудим общий взгляд на оптимальные методы для таких задач, а также поговорим о некоторых недавних результатах в этой области. В заключение, мы рассмотрим так называемые over-parameterized модели машинного обучения и про то, как сходятся известные методы для таких задач в сильно выпуклом, выпуклом и невыпуклых случаях.

Дополнительные материалы: all_russian_seminar_8_july.pdf (13.1 Mb)
 
  Обратная связь:
 Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024