Компьютерная оптика
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Правила для авторов

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Компьютерная оптика:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Компьютерная оптика, 2020, том 44, выпуск 2, страницы 282–289
DOI: https://doi.org/10.18287/2412-6179-CO-645
(Mi co791)
 

Эта публикация цитируется в 2 научных статьях (всего в 2 статьях)

ЧИСЛЕННЫЕ МЕТОДЫ И АНАЛИЗ ДАННЫХ

Снижение вычислительных затрат в глубоком обучении при почти идеальной линейной разделимости обучающей выборки

И. М. Куликовскихabc

a Самарский национальный исследовательский университет имени академика С.П. Королёва, 443086, Россия, г. Самара, Московское шоссе, д. 34
b Институт Руджер Бошкович, 10000, Хорватия, г. Загреб, Биеничка 54
c Факультет электротехники и вычислительной техники, Загребский университет, 10000, Хорватия, г. Загреб, Унска 3
Список литературы:
Аннотация: Последние исследования в области глубокого обучения показали, что метод градиентного спуска при условии почти идеальной разделимости обучающей выборки сходится к оптимальному решению, обеспечивающему максимальный зазор между классами. Даже без введения явной регуляризации положение разделяющей гиперплоскости продолжает изменяться, несмотря на то, что ошибка классификации на обучении стремится к нулю. Данное свойство так называемой «неявной» регуляризации позволяет использовать градиентный метод с более агрессивным шагом обучения, что гарантирует более низкие вычислительные затраты. Однако, хотя метод градиентного спуска обеспечивает хорошую обобщающую способность при стремлении к оптимальному решению, скорость сходимости к данному решению в условиях почти идеальной линейной разделимости значительно ниже, чем скорость сходимости, определяемая самой функцей потерь с заданным шагом обучения. В данной работе предлагается расширенная логарифмическая функция потерь, оптимизация параметров которой повышает скорость сходимости, обеспечивая границу погрешности, эквивалентную границе метода градиентного спуска. Результаты вычислительных экспериментов при классификации изображений на эталонных наборах MNIST и Fashion MNIST подтвердили эффективность предложенного подхода к снижению вычислительных затрат в условиях почти идеальной линейной разделимости обучающей выборки и обозначили направления дальнейших исследований.
Ключевые слова: неявная регуляризация, градиентный метод, скорость сходимости, линейная разделимость, классификация изображений.
Финансовая поддержка Номер гранта
Грант Президента Российской Федерации MK-6218.2018.9
Министерство науки и высшего образования Российской Федерации 074-U01
Российский фонд фундаментальных исследований 18-37-00219 мол_а
Европейский фонд регионального развития KK.01.1.1.01.0009
Работа выполнена при поддержке грантов Президента РФ (проект № MK-6218.2018.9), Минобрнауки РФ (проект № 074-U01), РФФИ (№ 18-37-00219), а также проекта DATACROSS Центра Превосходства, финансируемого Правительством Хорватии и Европейским Союзом через Европейский фонд регионального развития – Операционная программа конкурентоспособности и сплочения (KK.01.1.1.01.0009).
Поступила в редакцию: 13.10.2019
Принята в печать: 13.12.2019
Тип публикации: Статья
Образец цитирования: И. М. Куликовских, “Снижение вычислительных затрат в глубоком обучении при почти идеальной линейной разделимости обучающей выборки”, Компьютерная оптика, 44:2 (2020), 282–289
Цитирование в формате AMSBIB
\RBibitem{Kul20}
\by И.~М.~Куликовских
\paper Снижение вычислительных затрат в глубоком обучении при почти идеальной линейной разделимости обучающей выборки
\jour Компьютерная оптика
\yr 2020
\vol 44
\issue 2
\pages 282--289
\mathnet{http://mi.mathnet.ru/co791}
\crossref{https://doi.org/10.18287/2412-6179-CO-645}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/co791
  • https://www.mathnet.ru/rus/co/v44/i2/p282
  • Эта публикация цитируется в следующих 2 статьяx:
    Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Компьютерная оптика
    Статистика просмотров:
    Страница аннотации:141
    PDF полного текста:39
    Список литературы:16
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024