|
Вычислительные методы в дискретной математике
Ассоциативная память на основе клеточной нейронной сети с биполярной ступенчатой функцией активации
М. С. Тарков Институт физики полупроводников им. А. В. Ржанова СО РАН, г. Новосибирск, Россия
Аннотация:
Рассмотрены клеточные нейронные сети (КНС) с биполярной ступенчатой функцией активации, полученные путём обучения на заданном множестве бинарных эталонных изображений. Обученные варианты КНС с различными размерами окрестности клетки протестированы при решении задачи фильтрации зашумлённых изображений эталонов. Установлено, что глобальные методы обучения (метод Хебба и проекционный метод), традиционно используемые в сетях Хопфилда, в клеточных сетях порождают шумы высокого уровня (десятки процентов) на выходе даже при отсутствии шума на входе. Предложен локальный аналог проекционного метода, который обеспечивает значительно более качественную фильтрацию зашумлённых изображений, чем классический локальный алгоритм обучения персептрона. Локальный метод Хебба работает лучше двух указанных методов только при минимальной окрестности и больших уровнях шума (не ниже $70 \%$). Исследовано влияние числа уровней квантования весов КНС на их информационную ёмкость. Показано, что при числе уровней квантования больше $8$ и числе нейронов $16\times 16$ ёмкость КНС с квантованными весами, обученной согласно локальному правилу Хебба, аппроксимирует ёмкость КНС с непрерывными весами; при использовании локального проекционного метода подобный результат достигается при числе уровней не менее $64$.
Ключевые слова:
клеточные нейронные сети, фильтрация шумов, алгоритм обучения персептрона, локальный метод проекций, окрестность клетки, информационная ёмкость клеточной нейронной сети, квантование весов.
Образец цитирования:
М. С. Тарков, “Ассоциативная память на основе клеточной нейронной сети с биполярной ступенчатой функцией активации”, ПДМ, 2020, № 48, 100–108
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/pdm708 https://www.mathnet.ru/rus/pdm/y2020/i2/p100
|
|