|
Эта публикация цитируется в 2 научных статьях (всего в 2 статьях)
Тематический выпуск (окончание)
Байесовская дистилляция моделей глубокого обучения
А. В. Грабовойa, В. В. Стрижовb a Московский физико-технический институт
b Вычислительный центр им. А.А. Дородницына ФИЦ ИУ РАН, Москва
Аннотация:
Исследуется проблема понижения сложности аппроксимирующих моделей. Рассматриваются методы, основанные на дистилляции моделей глубокого обучения. Вводятся понятия учителя и ученика. Предполагается, что модель ученика имеет меньшее число параметров, чем модель учителя. Предлагается байесовский подход к выбору модели ученика. Предложен метод назначения априорного распределения параметров ученика на основе апостериорного распределения параметров модели учителя. Так как пространства параметров учителя и ученика не совпадают, предлагается механизм приведения пространства параметров модели учителя к пространству параметров модели ученика путем изменения структуры модели учителя. Проводится теоретический анализ предложенного механизма приведения. Вычислительный эксперимент проводился на синтетических и реальных данных. В качестве реальных данных рассматривается выборка FashionMNIST.
Ключевые слова:
выбор модели, байесовский вывод, дистилляция модели, локальные преобразования, преобразования вероятностных пространств.
Образец цитирования:
А. В. Грабовой, В. В. Стрижов, “Байесовская дистилляция моделей глубокого обучения”, Автомат. и телемех., 2021, № 11, 16–29; Autom. Remote Control, 82:11 (2021), 1846–1856
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/at15826 https://www.mathnet.ru/rus/at/y2021/i11/p16
|
Статистика просмотров: |
Страница аннотации: | 135 | PDF полного текста: | 4 | Список литературы: | 54 | Первая страница: | 25 |
|