Автоматика и телемеханика
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Импакт-фактор
Правила для авторов
Загрузить рукопись

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Автомат. и телемех.:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Автоматика и телемеханика, 2019, выпуск 9, страницы 64–90
DOI: https://doi.org/10.1134/S000523101909006X
(Mi at15342)
 

Эта публикация цитируется в 16 научных статьях (всего в 16 статьях)

Алгоритмы робастной стохастической оптимизации на основе метода зеркального спуска

А. В. Назинa, А. С. Немировскийb, А. Б. Цыбаковc, А. Б. Юдицкийd

a Институт проблем управления им. В.А. Трапезникова РАН, Москва
b ISyE, Технологический институт Джорджии, Атланта, США
c CREST, ENSAE, Франция
d LJK, Университет Гренобль Альпы, Гренобль, Франция
Список литературы:
Аннотация: Предлагается подход к построению робастных неевклидовых итеративных алгоритмов выпуклой композитной стохастической оптимизации, основанный на усечении стохастических градиентов. Для таких алгоритмов устанавливаются субгауссовские доверительные границы точности при слабых предположениях о хвостах распределения шума в выпуклой и сильно выпуклой постановках. Также предлагаются робастные оценки точности стохастических алгоритмов общего вида.
Ключевые слова: робастные итеративные алгоритмы, алгоритмы стохастической оптимизации, выпуклая композитная стохастическая оптимизация, метод зеркального спуска, робастные доверительные множества.
Финансовая поддержка Номер гранта
National Science Foundation CCF-1523768
Российский научный фонд 16-11-10015
Agence Nationale de la Recherche ANR-11-LABEX-0047
Fondation Mathématique Jacques Hadamard PGMO 2016-2032H
Работа А.Б. Юдицкого поддержана грантом PGMO 2016-2032H и совместно А.Б. Юдицкого с А.С. Немировским — грантом NSF CCF-1523768. Работа А.В. Назина поддержана Российским научным фондом (грант №16-11-10015). Работа А.Б. Цыбакова поддержана институтом GENES и грантом Labex Ecodec (ANR-11-LABEX-0047).

Поступила в редакцию: 18.07.2018
После доработки: 03.09.2018
Принята к публикации: 08.11.2018
Англоязычная версия:
Automation and Remote Control, 2019, Volume 80, Issue 9, Pages 1607–1627
DOI: https://doi.org/10.1134/S0005117919090042
Реферативные базы данных:
Тип публикации: Статья
Образец цитирования: А. В. Назин, А. С. Немировский, А. Б. Цыбаков, А. Б. Юдицкий, “Алгоритмы робастной стохастической оптимизации на основе метода зеркального спуска”, Автомат. и телемех., 2019, № 9, 64–90; Autom. Remote Control, 80:9 (2019), 1607–1627
Цитирование в формате AMSBIB
\RBibitem{NazNemTsy19}
\by А.~В.~Назин, А.~С.~Немировский, А.~Б.~Цыбаков, А.~Б.~Юдицкий
\paper Алгоритмы робастной стохастической оптимизации на основе метода зеркального спуска
\jour Автомат. и телемех.
\yr 2019
\issue 9
\pages 64--90
\mathnet{http://mi.mathnet.ru/at15342}
\crossref{https://doi.org/10.1134/S000523101909006X}
\elib{https://elibrary.ru/item.asp?id=39265892}
\transl
\jour Autom. Remote Control
\yr 2019
\vol 80
\issue 9
\pages 1607--1627
\crossref{https://doi.org/10.1134/S0005117919090042}
\isi{https://gateway.webofknowledge.com/gateway/Gateway.cgi?GWVersion=2&SrcApp=Publons&SrcAuth=Publons_CEL&DestLinkType=FullRecord&DestApp=WOS_CPL&KeyUT=000485890800004}
\scopus{https://www.scopus.com/record/display.url?origin=inward&eid=2-s2.0-85072963520}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/at15342
  • https://www.mathnet.ru/rus/at/y2019/i9/p64
  • Эта публикация цитируется в следующих 16 статьяx:
    1. Pravinkumar M. Sonsare, Chellamuthu Gunavathi, “A novel approach for protein secondary structure prediction using encoder–decoder with attention mechanism model”, Biomolecular Concepts, 15:1 (2024)  crossref
    2. S. S. Ablaev, A. N. Beznosikov, A. V. Gasnikov, D. M. Dvinskikh, A. V. Lobanov, S. M. Puchinin, F. S. Stonyakin, “On Some Works of Boris Teodorovich Polyak on the Convergence of Gradient Methods and Their Development”, Comput. Math. and Math. Phys., 64:4 (2024), 635  crossref
    3. Eduard Gorbunov, Marina Danilova, Innokentiy Shibaev, Pavel Dvurechensky, Alexander Gasnikov, “High-Probability Complexity Bounds for Non-smooth Stochastic Convex Optimization with Heavy-Tailed Noise”, J Optim Theory Appl, 2024  crossref
    4. Daniela Angela Parletta, Andrea Paudice, Massimiliano Pontil, Saverio Salzo, “High Probability Bounds for Stochastic Subgradient Schemes with Heavy Tailed Noise]”, SIAM Journal on Mathematics of Data Science, 6:4 (2024), 953  crossref
    5. S. S. Ablaev, A. N. Beznosikov, A. V. Gasnikov, D. M. Dvinskikh, A. V. Lobanov, S. M. Puchinin, F. S. Stonyakin, “On Some Works of Boris Teodorovich Polyak on the Convergence of Gradient Methods and Their Development”, Žurnal vyčislitelʹnoj matematiki i matematičeskoj fiziki, 64:4 (2024), 587  crossref
    6. Vladimir Alexandrov, Margarita Belousova, Stepan Lemak, Viktor Chertopolokhov, “Motion cueing algorithms for aircraft maneuvering under variable g-loads”, Acta Astronautica, 2024  crossref
    7. Nikita Kornilov, Alexander Gasnikov, Pavel Dvurechensky, Darina Dvinskikh, “Gradient-free methods for non-smooth convex stochastic optimization with heavy-tailed noise on convex compact”, Comput Manag Sci, 20:1 (2023)  crossref
    8. М. Ю. Данилова, “Методы, использующие градиентный клиппинг, для задач стохастической оптимизации с тяжелым шумом”, Докл. РАН. Матем., информ., проц. упр., 514:2 (2023), 99–108  mathnet  crossref  elib; M. Yu. Danilova, “Algorithms with gradient clipping for stochastic optimization with heavy-tailed noise”, Dokl. Math., 108:suppl. 2 (2023), S248–S256  crossref
    9. Viktor Chertopolokhov, Olga Andrianova, Alejandra Hernandez-Sanchez, Caridad Mireles, Alexander Poznyak, Isaac Chairez, “Averaged sub-gradient integral sliding mode control design for cueing end-effector acceleration of a two-link robotic arm”, ISA Transactions, 133 (2023), 134  crossref
    10. Szymon Łagosz, Paweł Wachel, Przemysław Śliwiński, “A Dual Averaging Algorithm for Online Modeling of Infinite Memory Nonlinear Systems”, IEEE Trans. Automat. Contr., 68:9 (2023), 5677  crossref
    11. Dus̆an Jakovetić, Dragana Bajović, Anit Kumar Sahu, Soummya Kar, Nemanja Milos̆ević, Dus̆an Stamenković, “Nonlinear Gradient Mappings and Stochastic Optimization: A General Framework with Applications to Heavy-Tail Noise”, SIAM J. Optim., 33:2 (2023), 394  crossref
    12. Lou Zh., Zhu W., Wu W.B., “Beyond Sub-Gaussian Noises: Sharp Concentration Analysis For Stochastic Gradient Descent”, J. Mach. Learn. Res., 23 (2022)  isi
    13. Jules Depersin, Guillaume Lecué, “Optimal robust mean and location estimation via convex programs with respect to any pseudo-norms”, Probab. Theory Relat. Fields, 183:3-4 (2022), 997  crossref
    14. G. Chinot, “Erm and rerm are optimal estimators for regression problems when malicious outliers corrupt the labels”, Electron. J. Stat., 14:2 (2020), 3563–3605  crossref  mathscinet  isi
    15. X. Cao, L. Lai, “Distributed approximate Newton's method robust to byzantine attackers”, IEEE Trans. Signal Process., 68 (2020), 6011–6025  crossref  mathscinet  isi  scopus
    16. Zhou K., Jin Ya., Ding Q., Cheng J., “Amortized Nesterov'S Momentum: a Robust Momentum and Its Application to Deep Learning”, Conference on Uncertainty in Artificial Intelligence (Uai 2020), Proceedings of Machine Learning Research, 124, eds. Peters J., Sontag D., Jmlr-Journal Machine Learning Research, 2020, 211–220  isi
    Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Автоматика и телемеханика
    Статистика просмотров:
    Страница аннотации:326
    PDF полного текста:64
    Список литературы:46
    Первая страница:16
     
      Обратная связь:
    math-net2025_03@mi-ras.ru
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2025