Информационные технологии и вычислительные системы
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Правила для авторов

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



ИТиВС:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Информационные технологии и вычислительные системы, 2023, выпуск 3, страницы 46–54
DOI: https://doi.org/10.14357/20718632230305
(Mi itvs820)
 

ИНТЕЛЛЕКТУАЛЬНЫЕ СИСТЕМЫ И ТЕХНОЛОГИИ

Послойная дистилляция знаний для обучения упрощенных биполярных морфологических нейронных сетей

М. В. Зингеренкоab, Е. Е. Лимоноваbc

a Московский физико-технический институт (национальный исследовательский университет), Долгопрудный, Московская область, Россия
b ООО "Смарт Энджинс Сервис", Москва, Россия
c Федеральный исследовательский центр "Информатика и Управление" РАН, Москва, Россия
Аннотация: В работе представлено улучшение структуры биполярного морфологического нейрона, повышающее его вычислительную эффективность и новый подход к обучению на основе непрерывных аппроксимаций максимума и дистилляции знаний. Были проведены эксперименты на выборке MNIST с нейронной сетью LeNet-подобной архитектуры, а также на выборке CIFAR10 с моделью архитектуры ResNet-22. На LeNet-подобной модели с помощью предложенного метода обучения получилось добиться 99.45% точности классификации при такой же точности у классической сети, а на ResNet-22 точность составила 86.69% при точности 86.43% у классической модели. Полученные результаты показывают, что предложенный метод, использующий log-sum-exp (LSE) аппроксимацию максимума и послойную дистилляцию знания, позволяет получить упрощенную биполярную морфологическую сеть, не уступающую классическим сетям.
Ключевые слова: биполярные морфологические сети, аппроксимации, искусственные нейронные сети, вычислительная эффективность.
Реферативные базы данных:
Тип публикации: Статья
Образец цитирования: М. В. Зингеренко, Е. Е. Лимонова, “Послойная дистилляция знаний для обучения упрощенных биполярных морфологических нейронных сетей”, ИТиВС, 2023, № 3, 46–54
Цитирование в формате AMSBIB
\RBibitem{ZinLim23}
\by М.~В.~Зингеренко, Е.~Е.~Лимонова
\paper Послойная дистилляция знаний для обучения упрощенных биполярных морфологических нейронных сетей
\jour ИТиВС
\yr 2023
\issue 3
\pages 46--54
\mathnet{http://mi.mathnet.ru/itvs820}
\crossref{https://doi.org/10.14357/20718632230305}
\elib{https://elibrary.ru/item.asp?id=54676455}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/itvs820
  • https://www.mathnet.ru/rus/itvs/y2023/i3/p46
  • Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Информационные технологии и вычислительные системы
    Статистика просмотров:
    Страница аннотации:28
    Первая страница:4
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024