Доклады Российской академии наук. Математика, информатика, процессы управления
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Импакт-фактор

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Докл. РАН. Матем., информ., проц. упр.:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Доклады Российской академии наук. Математика, информатика, процессы управления, 2023, том 514, номер 2, страницы 60–71
DOI: https://doi.org/10.31857/S268695432360060X
(Mi danma451)
 

Эта публикация цитируется в 1 научной статье (всего в 1 статье)

СПЕЦИАЛЬНЫЙ ВЫПУСК: ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И МАШИННОГО ОБУЧЕНИЯ

Нейросетевое обучение метрик: сравнение функций потерь

Р. Л. Васильевa, А. Г. Дьяконовb

a ООО "Яндекс", Москва, Россия
b Центральный университет, Москва, Россия
Список литературы:
Аннотация: Представлен обзор методов обучения метрик с помощью глубоких нейронных сетей. Эти методы появились в последние годы, но сравнивались лишь с предшественниками, используя для обучения представлений (на которых вычисляется метрика) нейронные сети устаревших на данный момент архитектур. Проведено сравнение описанных методов на разных датасетах из нескольких доменов, используя предобученные нейронные сети, сопоставимые по качеству с SotA (state of the art): ConvNeXt для изображений, DistilBERT для текстов. Использовались размеченные наборы данных, разбитые на две части (обучение и контроль) таким образом, чтобы классы не пересекались (т.е. в контроле нет объектов тех классов, которые были в обучении). Подобное масштабное честное сравнение сделано впервые и привело к неожиданным выводам: некоторые “старые” методы, например Tuplet Margin Loss, превосходят по качеству свои современные модификации и методы, предложенные в совсем свежих работах.
Ключевые слова: машинное обучение, глубокое обучение, метрика, схожесть.
Статья представлена к публикации: А. А. Шананин
Поступило: 30.06.2023
После доработки: 19.09.2023
Принято к публикации: 15.10.2023
Англоязычная версия:
Doklady Mathematics, 2023, Volume 108, Issue suppl. 2, Pages S215–S225
DOI: https://doi.org/10.1134/S1064562423701053
Реферативные базы данных:
Тип публикации: Статья
УДК: 519.7
Образец цитирования: Р. Л. Васильев, А. Г. Дьяконов, “Нейросетевое обучение метрик: сравнение функций потерь”, Докл. РАН. Матем., информ., проц. упр., 514:2 (2023), 60–71; Dokl. Math., 108:suppl. 2 (2023), S215–S225
Цитирование в формате AMSBIB
\RBibitem{VasDya23}
\by Р.~Л.~Васильев, А.~Г.~Дьяконов
\paper Нейросетевое обучение метрик: сравнение функций потерь
\jour Докл. РАН. Матем., информ., проц. упр.
\yr 2023
\vol 514
\issue 2
\pages 60--71
\mathnet{http://mi.mathnet.ru/danma451}
\crossref{https://doi.org/10.31857/S268695432360060X}
\elib{https://elibrary.ru/item.asp?id=56717744}
\transl
\jour Dokl. Math.
\yr 2023
\vol 108
\issue suppl. 2
\pages S215--S225
\crossref{https://doi.org/10.1134/S1064562423701053}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/danma451
  • https://www.mathnet.ru/rus/danma/v514/i2/p60
  • Эта публикация цитируется в следующих 1 статьяx:
    Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Доклады Российской академии наук. Математика, информатика, процессы управления Доклады Российской академии наук. Математика, информатика, процессы управления
    Статистика просмотров:
    Страница аннотации:92
    Список литературы:16
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024