|
ИНТЕЛЛЕКТУАЛЬНЫЕ СИСТЕМЫ И ТЕХНОЛОГИИ
Послойная дистилляция знаний для обучения упрощенных биполярных морфологических нейронных сетей
М. В. Зингеренкоab, Е. Е. Лимоноваbc a Московский физико-технический институт (национальный исследовательский университет), Долгопрудный, Московская область, Россия
b ООО "Смарт Энджинс Сервис", Москва, Россия
c Федеральный исследовательский центр "Информатика и Управление" РАН, Москва, Россия
Аннотация:
В работе представлено улучшение структуры биполярного морфологического нейрона, повышающее его вычислительную эффективность и новый подход к обучению на основе непрерывных аппроксимаций максимума и дистилляции знаний. Были проведены эксперименты на выборке MNIST с нейронной сетью LeNet-подобной архитектуры, а также на выборке CIFAR10 с моделью архитектуры ResNet-22. На LeNet-подобной модели с помощью предложенного метода обучения получилось добиться 99.45% точности классификации при такой же точности у классической сети, а на ResNet-22 точность составила 86.69% при точности 86.43% у классической модели. Полученные результаты показывают, что предложенный метод, использующий log-sum-exp (LSE)
аппроксимацию максимума и послойную дистилляцию знания, позволяет получить упрощенную биполярную морфологическую сеть, не уступающую классическим сетям.
Ключевые слова:
биполярные морфологические сети, аппроксимации, искусственные нейронные сети, вычислительная эффективность.
Образец цитирования:
М. В. Зингеренко, Е. Е. Лимонова, “Послойная дистилляция знаний для обучения упрощенных биполярных морфологических нейронных сетей”, ИТиВС, 2023, № 3, 46–54
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/itvs820 https://www.mathnet.ru/rus/itvs/y2023/i3/p46
|
Статистика просмотров: |
Страница аннотации: | 42 | PDF полного текста: | 7 | Первая страница: | 4 |
|