Аннотация:
Предлагается подход к построению робастных неевклидовых итеративных алгоритмов выпуклой композитной стохастической оптимизации, основанный на усечении стохастических градиентов. Для таких алгоритмов устанавливаются субгауссовские доверительные границы точности при слабых предположениях о хвостах распределения шума в выпуклой и сильно выпуклой постановках. Также предлагаются робастные оценки точности стохастических алгоритмов общего вида.
Работа А.Б. Юдицкого поддержана грантом PGMO 2016-2032H и совместно А.Б. Юдицкого с А.С. Немировским —
грантом NSF CCF-1523768.
Работа А.В. Назина поддержана Российским научным фондом (грант №16-11-10015).
Работа А.Б. Цыбакова поддержана институтом GENES и
грантом Labex Ecodec (ANR-11-LABEX-0047).
Поступила в редакцию: 18.07.2018 После доработки: 03.09.2018 Принята к публикации: 08.11.2018
Образец цитирования:
А. В. Назин, А. С. Немировский, А. Б. Цыбаков, А. Б. Юдицкий, “Алгоритмы робастной стохастической оптимизации на основе метода зеркального спуска”, Автомат. и телемех., 2019, № 9, 64–90; Autom. Remote Control, 80:9 (2019), 1607–1627
\RBibitem{NazNemTsy19}
\by А.~В.~Назин, А.~С.~Немировский, А.~Б.~Цыбаков, А.~Б.~Юдицкий
\paper Алгоритмы робастной стохастической оптимизации на основе метода зеркального спуска
\jour Автомат. и телемех.
\yr 2019
\issue 9
\pages 64--90
\mathnet{http://mi.mathnet.ru/at15342}
\crossref{https://doi.org/10.1134/S000523101909006X}
\elib{https://elibrary.ru/item.asp?id=39265892}
\transl
\jour Autom. Remote Control
\yr 2019
\vol 80
\issue 9
\pages 1607--1627
\crossref{https://doi.org/10.1134/S0005117919090042}
\isi{https://gateway.webofknowledge.com/gateway/Gateway.cgi?GWVersion=2&SrcApp=Publons&SrcAuth=Publons_CEL&DestLinkType=FullRecord&DestApp=WOS_CPL&KeyUT=000485890800004}
\scopus{https://www.scopus.com/record/display.url?origin=inward&eid=2-s2.0-85072963520}
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/at15342
https://www.mathnet.ru/rus/at/y2019/i9/p64
Эта публикация цитируется в следующих 16 статьяx:
Pravinkumar M. Sonsare, Chellamuthu Gunavathi, “A novel approach for protein secondary structure prediction using encoder–decoder with attention mechanism model”, Biomolecular Concepts, 15:1 (2024)
S. S. Ablaev, A. N. Beznosikov, A. V. Gasnikov, D. M. Dvinskikh, A. V. Lobanov, S. M. Puchinin, F. S. Stonyakin, “On Some Works of Boris Teodorovich Polyak on the Convergence of Gradient Methods and Their Development”, Comput. Math. and Math. Phys., 64:4 (2024), 635
Eduard Gorbunov, Marina Danilova, Innokentiy Shibaev, Pavel Dvurechensky, Alexander Gasnikov, “High-Probability Complexity Bounds for Non-smooth Stochastic Convex Optimization with Heavy-Tailed Noise”, J Optim Theory Appl, 2024
Daniela Angela Parletta, Andrea Paudice, Massimiliano Pontil, Saverio Salzo, “High Probability Bounds for Stochastic Subgradient Schemes with Heavy Tailed Noise]”, SIAM Journal on Mathematics of Data Science, 6:4 (2024), 953
S. S. Ablaev, A. N. Beznosikov, A. V. Gasnikov, D. M. Dvinskikh, A. V. Lobanov, S. M. Puchinin, F. S. Stonyakin, “On Some Works of Boris Teodorovich Polyak on the Convergence of Gradient Methods and Their Development”, Žurnal vyčislitelʹnoj matematiki i matematičeskoj fiziki, 64:4 (2024), 587
Vladimir Alexandrov, Margarita Belousova, Stepan Lemak, Viktor Chertopolokhov, “Motion cueing algorithms for aircraft maneuvering under variable g-loads”, Acta Astronautica, 2024
Nikita Kornilov, Alexander Gasnikov, Pavel Dvurechensky, Darina Dvinskikh, “Gradient-free methods for non-smooth convex stochastic optimization with heavy-tailed noise on convex compact”, Comput Manag Sci, 20:1 (2023)
М. Ю. Данилова, “Методы, использующие градиентный клиппинг, для задач стохастической оптимизации с тяжелым шумом”, Докл. РАН. Матем., информ., проц. упр., 514:2 (2023), 99–108; M. Yu. Danilova, “Algorithms with gradient clipping for stochastic optimization with heavy-tailed noise”, Dokl. Math., 108:suppl. 2 (2023), S248–S256
Viktor Chertopolokhov, Olga Andrianova, Alejandra Hernandez-Sanchez, Caridad Mireles, Alexander Poznyak, Isaac Chairez, “Averaged sub-gradient integral sliding mode control design for cueing end-effector acceleration of a two-link robotic arm”, ISA Transactions, 133 (2023), 134
Szymon Łagosz, Paweł Wachel, Przemysław Śliwiński, “A Dual Averaging Algorithm for Online Modeling of Infinite Memory Nonlinear Systems”, IEEE Trans. Automat. Contr., 68:9 (2023), 5677
Dus̆an Jakovetić, Dragana Bajović, Anit Kumar Sahu, Soummya Kar, Nemanja Milos̆ević, Dus̆an Stamenković, “Nonlinear Gradient Mappings and Stochastic Optimization: A General Framework with Applications to Heavy-Tail Noise”, SIAM J. Optim., 33:2 (2023), 394
Lou Zh., Zhu W., Wu W.B., “Beyond Sub-Gaussian Noises: Sharp Concentration Analysis For Stochastic Gradient Descent”, J. Mach. Learn. Res., 23 (2022)
Jules Depersin, Guillaume Lecué, “Optimal robust mean and location estimation via convex programs with respect to any pseudo-norms”, Probab. Theory Relat. Fields, 183:3-4 (2022), 997
G. Chinot, “Erm and rerm are optimal estimators for regression problems when malicious outliers corrupt the labels”, Electron. J. Stat., 14:2 (2020), 3563–3605
X. Cao, L. Lai, “Distributed approximate Newton's method robust to byzantine attackers”, IEEE Trans. Signal Process., 68 (2020), 6011–6025
Zhou K., Jin Ya., Ding Q., Cheng J., “Amortized Nesterov'S Momentum: a Robust Momentum and Its Application to Deep Learning”, Conference on Uncertainty in Artificial Intelligence (Uai 2020), Proceedings of Machine Learning Research, 124, eds. Peters J., Sontag D., Jmlr-Journal Machine Learning Research, 2020, 211–220