Семинары
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Календарь
Поиск
Регистрация семинара

RSS
Ближайшие семинары




Семинар «Математические основы искусственного интеллекта»
30 октября 2024 г. 17:00–18:00, г. Москва, zoom
 


Удивительные свойства ландшафта функции потерь в сверхпараметризованных моделях глубокого обучения

Д. П. Ветров

Constructor University, Bremen, Germany
Видеозаписи:
MP4 690.3 Mb

Количество просмотров:
Эта страница:317
Видеофайлы:132
Youtube:

Д. П. Ветров



Аннотация: В последние годы обнаружились удивительные эффекты, наблюдаемые в процессе обучения глубоких нейронных сетей (DNN). Среди них:
- феномен “двойного спуска”, когда увеличение числа параметров в обучаемой модели сначала уменьшает ошибку на тестовых данных, затем увеличивает, а потом снова уменьшает при сильной перепараметризации, не приводя к переобучению;
- топологическая связность локальных минимумов, т.е. существование “непрерывных” траекторий, состоящих только из локальных минимумов функции потерь;
- “минные поля” в ландшафте функции потерь; и др. Все эти эффекты связаны с сверхпараметризацией DNN. Более глубокое понимание свойств сверхпараметризованных моделей может помочь в разработке лучших алгоритмов обучения DNN.
В докладе мы поделимся интуицией и экспериментальными подтверждениями, объясняющими многие из упомянутых выше неожиданных эффектов.
 
  Обратная связь:
 Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024