|
Эта публикация цитируется в 7 научных статьях (всего в 7 статьях)
ЧИСЛЕННЫЕ МЕТОДЫ И ОСНОВЫ ИХ РЕАЛИЗАЦИИ
Mirror descent for constrained optimization problems with large subgradient values of functional constraints
[Метод зеркального спуска для условных задач оптимизации с большими значениями норм субградиентов функциональных ограничений]
F. S. Stonyakinab, A. N. Stepanova, A. V. Gasnikovcdb, A. A. Titovb a V. I. Vernadsky Crimean Federal University,
4 Academician Vernadsky av., Simferopol, 295007, Russia
b Moscow Institute of Physics and Technology,
9 Institutskiy per., Dolgoprudny, Moscow Region, 141701, Russia
c Institute for Information Transmission Problems,
19/1 Bolshoi Karetny per., Moscow, 127051, Russia
d Caucasus Mathematical Center, Adyghe State University,
208 Pervomayskaya st., Maykop, 385000, Russia
Аннотация:
В работе рассмотрена задача минимизации выпуклого и, вообще говоря, негладкого функционала $f$ при наличии липшицевого неположительного выпуклого негладкого функционального ограничения $g$. При этом обоснованы оценки скорости сходимости методов адаптивного зеркального спуска также и для случая квазивыпуклого целевого функционала в случае выпуклого функционального ограничения. Предложен также метод и для задачи минимизации квазивыпуклого целевого функционала с квазивыпуклым неположительным функционалом ограничения. В работе предложен специальный подход к выбору шагов и количества итераций в алгоритме зеркального спуска для рассматриваемого класса задач. В случае, когда значения норм (суб)градиентов функциональных ограничений достаточно велики, предложенный подход к выбору шагов и остановке метода может ускорить работу метода по сравнению с его аналогами. В работе приведены численные эксперименты, демонстрирующие преимущества использования таких методов. Также показано, что методы применимы к целевым функционалам различных уровней гладкости. В частности, рассмотрен класс гёльдеровых целевых функционалов. На базе техники рестартов для рассмотренного варианта метода зеркального спуска был предложен оптимальный метод решения задач оптимизации с сильно выпуклыми целевыми функционалами. Получены оценки скорости сходимости рассмотренных алгоритмов для выделенных классов оптимизационных задач. Доказанные оценки демонстрируют оптимальность рассматриваемых методов с точки зрения теории нижних оракульных оценок.
Ключевые слова:
негладкая условная оптимизация, квазивыпуклый функционал, адаптивный зеркальный спуск, уровень гладкости, гёльдеров целевой функционал, оптимальный метод.
Поступила в редакцию: 04.11.2019 Исправленный вариант: 08.12.2019 Принята в печать: 24.12.2019
Образец цитирования:
F. S. Stonyakin, A. N. Stepanov, A. V. Gasnikov, A. A. Titov, “Mirror descent for constrained optimization problems with large subgradient values of functional constraints”, Компьютерные исследования и моделирование, 12:2 (2020), 301–317
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/crm786 https://www.mathnet.ru/rus/crm/v12/i2/p301
|
Статистика просмотров: |
Страница аннотации: | 407 | PDF полного текста: | 88 | Список литературы: | 30 |
|