|
Эта публикация цитируется в 1 научной статье (всего в 1 статье)
СПЕЦИАЛЬНЫЙ ВЫПУСК: ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И МАШИННОГО ОБУЧЕНИЯ
Нейросетевое обучение метрик: сравнение функций потерь
Р. Л. Васильевa, А. Г. Дьяконовb a ООО "Яндекс", Москва, Россия
b Центральный университет, Москва, Россия
Аннотация:
Представлен обзор методов обучения метрик с помощью глубоких нейронных сетей. Эти методы появились в последние годы, но сравнивались лишь с предшественниками, используя для обучения представлений (на которых вычисляется метрика) нейронные сети устаревших на данный момент архитектур. Проведено сравнение описанных методов на разных датасетах из нескольких доменов, используя предобученные нейронные сети, сопоставимые по качеству с SotA (state of the art): ConvNeXt для изображений, DistilBERT для текстов. Использовались размеченные наборы данных, разбитые на две части (обучение и контроль) таким образом, чтобы классы не пересекались (т.е. в контроле нет объектов тех классов, которые были в обучении). Подобное масштабное честное сравнение сделано впервые и привело к неожиданным выводам: некоторые “старые” методы, например Tuplet Margin Loss, превосходят по качеству свои современные модификации и методы, предложенные в совсем свежих работах.
Ключевые слова:
машинное обучение, глубокое обучение, метрика, схожесть.
Образец цитирования:
Р. Л. Васильев, А. Г. Дьяконов, “Нейросетевое обучение метрик: сравнение функций потерь”, Докл. РАН. Матем., информ., проц. упр., 514:2 (2023), 60–71; Dokl. Math., 108:suppl. 2 (2023), S215–S225
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/danma451 https://www.mathnet.ru/rus/danma/v514/i2/p60
|
Статистика просмотров: |
Страница аннотации: | 92 | Список литературы: | 16 |
|