Семинары
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Календарь
Поиск
Регистрация семинара

RSS
Ближайшие семинары




Математика ИИ
1 декабря 2023 г. 17:00, г. Москва, Инновационный Центр «Сколково», Большой бульвар, 30, стр. 1, аудитория R2-2023
 


Ускоренный безградиентный метод для задач негладкой стохастической выпуклой оптимизации с бесконечной дисперсией

Никита Корнилов

Сколковский институт науки и технологий, территория Инновационного Центра "Сколково"
Дополнительные материалы:
Adobe PDF 9.0 Mb

Количество просмотров:
Эта страница:106
Материалы:11

Аннотация: Никита рассмотрит задачу негладкой стохастической выпуклой оптимизации с двумя зашумленными значениями функции на каждом шаге с бесконечной дисперсией шума. В классической постановке, когда дисперсия шума конечна, оптимальный алгоритм основан на ускоренном градиентном методе с батчингом. Этот алгоритм оптимален в терминах точности решения максимально допустимого уровня враждебного шума. Однако гипотеза о конечной дисперсии может оказаться неприменимой во многих практических сценариях.

Дополнительные материалы: presentation.pdf (9.0 Mb)

Website: https://vk.com/wall-220010299_70
 
  Обратная связь:
 Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024