Аннотация:
В этом коротком сообщении рассматриваются задачи выпуклой стохастической оптимизации при различных предположениях о свойствах стохастических субградиентов. Известно, что если вычислителю доступно значение целевой функции задачи, то можно параллельно вычислить несколько независимых приближений к решению задачи в терминах сходимости по математическому ожиданию. Выбрав приближение с наименьшим значением функции, можно контролировать вероятности больших уклонений невязки по значению функции. В данной работе рассматривается случай, когда значение целевой функции недоступно или требует большого объема вычислений. В предположении субгауссовости распределения стохастических субградиентов, а также в общем случае при умеренном уровне вероятности больших уклонений показано, что параллельное вычисление нескольких приближенных решений с последующим усреднением дает те же оценки вероятностей больших уклонений невязки по функции, что и вычисление одного приближенного решения, но с большим числом итераций. Тем самым в рассматриваемом случае параллельные вычисления позволяют получить решение того же качества, но за меньшее время.
Ключевые слова:
стохастическая выпуклая оптимизация, оценки вероятностей больших уклонений, метод зеркального спуска, параллельные алгоритмы.
Исследование А. В. Гасникова и П. Е. Двуреченского в пункте 3 выполнено в ИППИ РАН за счет гранта Российского научного фонда (проект № 14-50-00150). Исследование А. А. Лагуновской частично поддержано грантом Президента РФ МК-1806.2017.9.
Статья поступила: 24.01.2017 Переработанный вариант: 07.07.2017
Образец цитирования:
П. Е. Двуреченский, А. В. Гасников, А. А. Лагуновская, “Параллельные алгоритмы и оценки вероятностей больших уклонений в задачах стохастической выпуклой оптимизации”, Сиб. журн. вычисл. матем., 21:1 (2018), 47–53; Num. Anal. Appl., 11:1 (2018), 33–37
Eduard Gorbunov, Pavel Dvurechensky, Alexander Gasnikov, “An Accelerated Method for Derivative-Free Smooth Stochastic Convex Optimization”, SIAM J. Optim., 32:2 (2022), 1210
Ivanova A., Dvurechensky P., Gasnikov A., Kamzolov D., “Composite Optimization For the Resource Allocation Problem”, Optim. Method Softw., 36:4 (2021), 720–754
D. Dvinskikh, A. Gasnikov, “Decentralized and parallel primal and dual accelerated methods for stochastic convex programming problems”, J. Inverse Ill-Posed Probl., 29:3 (2021), 385–405
P. Dvurechensky, E. Gorbunov, A. Gasnikov, “An accelerated directional derivative method for smooth stochastic convex optimization”, Eur. J. Oper. Res., 290:2 (2021), 601–621
Alexander Rogozin, Mikhail Bochko, Pavel Dvurechensky, Alexander Gasnikov, Vladislav Lukoshkin, 2021 60th IEEE Conference on Decision and Control (CDC), 2021, 3367
Artem Agafonov, Pavel Dvurechensky, Gesualdo Scutari, Alexander Gasnikov, Dmitry Kamzolov, Aleksandr Lukashevich, Amir Daneshmand, 2021 60th IEEE Conference on Decision and Control (CDC), 2021, 2407
Darina Dvinskikh, Aleksandr Ogaltsov, Alexander Gasnikov, Pavel Dvurechensky, Vladimir Spokoiny, “On the line-search gradient methods for stochastic optimization”, IFAC-PapersOnLine, 53:2 (2020), 1715
Darina Dvinskikh, Eduard Gorbunov, Alexander Gasnikov, Pavel Dvurechensky, Cesar A. Uribe, 2019 IEEE 58th Conference on Decision and Control (CDC), 2019, 7435