Прикладная дискретная математика
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Импакт-фактор

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



ПДМ:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Прикладная дискретная математика, 2020, номер 48, страницы 100–108
DOI: https://doi.org/10.17223/20710410/48/9
(Mi pdm708)
 

Вычислительные методы в дискретной математике

Ассоциативная память на основе клеточной нейронной сети с биполярной ступенчатой функцией активации

М. С. Тарков

Институт физики полупроводников им. А. В. Ржанова СО РАН, г. Новосибирск, Россия
Список литературы:
Аннотация: Рассмотрены клеточные нейронные сети (КНС) с биполярной ступенчатой функцией активации, полученные путём обучения на заданном множестве бинарных эталонных изображений. Обученные варианты КНС с различными размерами окрестности клетки протестированы при решении задачи фильтрации зашумлённых изображений эталонов. Установлено, что глобальные методы обучения (метод Хебба и проекционный метод), традиционно используемые в сетях Хопфилда, в клеточных сетях порождают шумы высокого уровня (десятки процентов) на выходе даже при отсутствии шума на входе. Предложен локальный аналог проекционного метода, который обеспечивает значительно более качественную фильтрацию зашумлённых изображений, чем классический локальный алгоритм обучения персептрона. Локальный метод Хебба работает лучше двух указанных методов только при минимальной окрестности и больших уровнях шума (не ниже $70 \%$). Исследовано влияние числа уровней квантования весов КНС на их информационную ёмкость. Показано, что при числе уровней квантования больше $8$ и числе нейронов $16\times 16$ ёмкость КНС с квантованными весами, обученной согласно локальному правилу Хебба, аппроксимирует ёмкость КНС с непрерывными весами; при использовании локального проекционного метода подобный результат достигается при числе уровней не менее $64$.
Ключевые слова: клеточные нейронные сети, фильтрация шумов, алгоритм обучения персептрона, локальный метод проекций, окрестность клетки, информационная ёмкость клеточной нейронной сети, квантование весов.
Реферативные базы данных:
Тип публикации: Статья
УДК: 621.396:621.372
Образец цитирования: М. С. Тарков, “Ассоциативная память на основе клеточной нейронной сети с биполярной ступенчатой функцией активации”, ПДМ, 2020, № 48, 100–108
Цитирование в формате AMSBIB
\RBibitem{Tar20}
\by М.~С.~Тарков
\paper Ассоциативная память на основе клеточной нейронной сети с биполярной ступенчатой функцией активации
\jour ПДМ
\yr 2020
\issue 48
\pages 100--108
\mathnet{http://mi.mathnet.ru/pdm708}
\crossref{https://doi.org/10.17223/20710410/48/9}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/pdm708
  • https://www.mathnet.ru/rus/pdm/y2020/i2/p100
  • Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Прикладная дискретная математика
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024