|
Эта публикация цитируется в 3 научных статьях (всего в 3 статьях)
ЧИСЛЕННЫЕ МЕТОДЫ И АНАЛИЗ ДАННЫХ
Снижение вычислительных затрат в глубоком обучении при почти идеальной линейной разделимости обучающей выборки
И. М. Куликовскихabc a Самарский национальный исследовательский университет имени академика С.П. Королёва, 443086, Россия, г. Самара, Московское шоссе, д. 34
b Институт Руджер Бошкович, 10000, Хорватия, г. Загреб, Биеничка 54
c Факультет электротехники и вычислительной техники, Загребский университет, 10000, Хорватия, г. Загреб, Унска 3
Аннотация:
Последние исследования в области глубокого обучения показали, что метод градиентного спуска при условии почти идеальной разделимости обучающей выборки сходится к оптимальному решению, обеспечивающему максимальный зазор между классами. Даже без введения явной регуляризации положение разделяющей гиперплоскости продолжает изменяться, несмотря на то, что ошибка классификации на обучении стремится к нулю. Данное свойство так называемой «неявной» регуляризации позволяет использовать градиентный метод с более агрессивным шагом обучения, что гарантирует более низкие вычислительные затраты. Однако, хотя метод градиентного спуска обеспечивает хорошую обобщающую способность при стремлении к оптимальному решению, скорость сходимости к данному решению в условиях почти идеальной линейной разделимости значительно ниже, чем скорость сходимости, определяемая самой функцей потерь с заданным шагом обучения. В данной работе предлагается расширенная логарифмическая функция потерь, оптимизация параметров которой повышает скорость сходимости, обеспечивая границу погрешности, эквивалентную границе метода градиентного спуска. Результаты вычислительных экспериментов при классификации изображений на эталонных наборах MNIST и Fashion MNIST подтвердили эффективность предложенного подхода к снижению вычислительных затрат в условиях почти идеальной линейной разделимости обучающей выборки и обозначили направления дальнейших исследований.
Ключевые слова:
неявная регуляризация, градиентный метод, скорость сходимости, линейная разделимость, классификация изображений.
Поступила в редакцию: 13.10.2019 Принята в печать: 13.12.2019
Образец цитирования:
И. М. Куликовских, “Снижение вычислительных затрат в глубоком обучении при почти идеальной линейной разделимости обучающей выборки”, Компьютерная оптика, 44:2 (2020), 282–289
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/co791 https://www.mathnet.ru/rus/co/v44/i2/p282
|
Статистика просмотров: |
Страница аннотации: | 147 | PDF полного текста: | 47 | Список литературы: | 22 |
|