Журнал Белорусского государственного университета. Математика. Информатика
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Правила для авторов

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Журн. Белорус. гос. ун-та. Матем. Инф.:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Журнал Белорусского государственного университета. Математика. Информатика, 2020, том 3, страницы 60–72
DOI: https://doi.org/10.33581/2520-6508-2020-3-60-72
(Mi bgumi81)
 

Теоретические основы информатики

Устойчивость нейронных сетей к состязательным атакам при распознавании биомедицинских изображений

Д. М. Войновa, В. А. Ковалевb

a Белорусский государственный университет, пр. Независимости, 4, 220030, г. Минск, Беларусь
b Объединенный институт проблем информатики НАН Беларуси, ул. Сурганова, 6, 220012, г. Минск, Беларусь
Список литературы:
Аннотация: В настоящий момент большинство исследований и разработок в области глубокого обучения концентрируются на повышении точности распознавания, в то время как проблема состязательных атак на глубокие нейронные сети и их последствий пока не получила должного внимания. Данная статья посвящена экспериментальной оценке влияния различных факторов на устойчивость нейронных сетей к состязательным атакам при решении задач распознавания биомедицинских изображений. На обширном материале, включающем более чем 1,45 млн радиологических и гистологических изображений, исследуется эффективность атак, подготовленных с помощью алгоритма спроецированного градиентного спуска ($PGD$), алгоритма «глубокого обмана» ($DeepFool$) и алгоритма Карлини – Вагнера ($CW$). Анализируются результаты атак обоих типов (по методам белого и черного ящика) на нейронные сети с архитектурами $InceptionV3, Densenet121, ResNet50, MobileNet$ и $Xception$. Основной вывод работы заключается в том, что проблема состязательных атак актуальна для задач распознавания биомедицинских изображений, поскольку протестированные алгоритмы успешно атакуют обученные нейронные сети так, что их точность падает ниже $15\%$. Установлено, что при тех же величинах злонамеренных возмущений изображения алгоритм $PGD$ менее эффективен, чем алгоритмы $DeepFool$ и $CW$. При использовании в качестве метрики сравнения изображений $L_{2}$-нормы алгоритмы$DeepFool$ и $CW$ генерируют атакующие изображения близкого качества. В трех из четырех задач распознавания радиологических и гистологических изображений атаки по методу черного ящика с использованием алгоритма $PGD$ показали низкую эффективность
Ключевые слова: глубокое обучение; состязательные атаки; биомедицинские изображения.
Тип публикации: Статья
УДК: 004.9
Образец цитирования: Д. М. Войнов, В. А. Ковалев, “Устойчивость нейронных сетей к состязательным атакам при распознавании биомедицинских изображений”, Журн. Белорус. гос. ун-та. Матем. Инф., 3 (2020), 60–72
Цитирование в формате AMSBIB
\RBibitem{VoyKov20}
\by Д.~М.~Войнов, В.~А.~Ковалев
\paper Устойчивость нейронных сетей к состязательным атакам при распознавании биомедицинских изображений
\jour Журн. Белорус. гос. ун-та. Матем. Инф.
\yr 2020
\vol 3
\pages 60--72
\mathnet{http://mi.mathnet.ru/bgumi81}
\crossref{https://doi.org/10.33581/2520-6508-2020-3-60-72}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/bgumi81
  • https://www.mathnet.ru/rus/bgumi/v3/p60
  • Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Журнал Белорусского государственного университета. Математика. Информатика
    Статистика просмотров:
    Страница аннотации:80
    PDF полного текста:57
    Список литературы:13
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024