|
|
Публикации в базе данных Math-Net.Ru |
Цитирования |
|
2024 |
1. |
S. A. Chezhegov, S. N. Skorik, N. Khachaturov, D. S. Shalagin, A. A. Avetisyan, M. Takáč, Y. A. Kholodov, A. N. Beznosikov, “Local methods with adaptivity via scaling”, УМН, 79:6(480) (2024), 117–158 |
2. |
A. E. Sadchikov, S. A. Chezhegov, A. N. Beznosikov, A. V. Gasnikov, “Local SGD for near-quadratic problems:
Improving convergence under unconstrained noise conditions”, УМН, 79:6(480) (2024), 83–116 |
3. |
D. A. Bylinkin, K. D. Degtyarev, A. N. Beznosikov, “Accelerated Stochastic ExtraGradient: Mixing Hessian and gradient similarity to reduce communication in distributed and federated learning”, УМН, 79:6(480) (2024), 5–38 |
4. |
С. С. Аблаев, А. Н. Безносиков, А. В. Гасников, Д. М. Двинских, А. В. Лобанов, С. М. Пучинин, Ф. С. Стонякин, “О некоторых работах Бориса Теодоровича Поляка по сходимости градиентных методов и их развитии”, Ж. вычисл. матем. и матем. физ., 64:4 (2024), 587–626 ; S. S. Ablaev, A. N. Beznosikov, A. V. Gasnikov, D. M. Dvinskikh, A. V. Lobanov, S. M. Puchinin, F. S. Stonyakin, “On some works of Boris Teodorovich Polyak on the convergence of gradient methods and their development”, Comput. Math. Math. Phys., 64:4 (2024), 635–675 |
1
|
|
2023 |
5. |
Д. Медяков, Г. Молодцов, А. Безносиков, А. Гасников, “Оптимальное разделение данных в распределенной оптимизации для машинного обучения”, Докл. РАН. Матем., информ., проц. упр., 514:2 (2023), 343–354 ; D. Medyakov, G. Molodtsov, A. Beznosikov, A. Gasnikov, “Optimal data splitting in distributed optimization for machine learning”, Dokl. Math., 108:suppl. 2 (2023), S465–S475 |
6. |
А. Пичугин, М. Печин, А. Безносиков, А. Савченко, А. Гасников, “Оптимальный анализ метода с батчированием для стохастических вариационных неравенств вида конечной суммы”, Докл. РАН. Матем., информ., проц. упр., 514:2 (2023), 212–224 ; A. Pichugin, M. Pechin, A. Beznosikov, A. Savchenko, A. Gasnikov, “Optimal analysis of method with batching for monotone stochastic finite-sum variational inequalities”, Dokl. Math., 108:suppl. 2 (2023), S348–S359 |
7. |
М. И. Рудаков, А. Н. Безносиков, Я. А. Холодов, А. В. Гасников, “Техники сжатия активаций слоев и градиентов для распределенного обучения моделей искусственного интеллекта”, Докл. РАН. Матем., информ., проц. упр., 514:2 (2023), 126–137 ; M. I. Rudakov, A. N. Beznosikov, Y. A. Kholodov, A. V. Gasnikov, “Activations and gradients compression for model-parallel training”, Dokl. Math., 108:suppl. 2 (2023), S272–S281 |
8. |
А. Н. Безносиков, А. В. Гасников, К. Э. Зайнуллина, А. Ю. Масловский, Д. А. Пасечнюк, “Унифицированный анализ методов решения вариационных неравенств: редукция дисперсии, сэмплирование, квантизация и покомпонентный спуск”, Ж. вычисл. матем. и матем. физ., 63:2 (2023), 189–217 ; A. N. Beznosikov, A. V. Gasnikov, K. E. Zainullina, A. Yu. Maslovskii, D. A. Pasechnyuk, “A unified analysis of variational inequality methods: variance reduction, sampling, quantization, and coordinate descent”, Comput. Math. Math. Phys., 63:2 (2023), 147–174 |
3
|
|
2022 |
9. |
A. I. Bazarova, A. N. Beznosikov, A. V. Gasnikov, “Linearly convergent gradient-free methods for minimization of parabolic approximation”, Компьютерные исследования и моделирование, 14:2 (2022), 239–255 |
1
|
|