Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов

Розглянуто задачу нечіткого кластерування даних за умов наявності класів, що перетинаються. Для розв’язання задачі введено архітектуру та алгоритм навчання нечіткої спайк-нейронної мережі, що узагальнює нейронні мережі третього покоління, які нині інтенсивно розвиваються і мають низку переваг над тр...

Full description

Saved in:
Bibliographic Details
Published in:Проблемы управления и информатики
Date:2013
Main Authors: Бодянский, Е.В., Винокурова, Е.А., Долотов, А.И.
Format: Article
Language:Russian
Published: Інститут кібернетики ім. В.М. Глушкова НАН України 2013
Online Access:https://nasplib.isofts.kiev.ua/handle/123456789/207597
Tags: Add Tag
No Tags, Be the first to tag this record!
Journal Title:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Cite this:Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов / Е.В. Бодянский, Е.А. Винокурова, А.И. Долотов // Проблемы управления и информатики. — 2013. — № 2. — С. 25–34. — Бібліогр.: 20 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1860234465433878528
author Бодянский, Е.В.
Винокурова, Е.А.
Долотов, А.И.
author_facet Бодянский, Е.В.
Винокурова, Е.А.
Долотов, А.И.
citation_txt Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов / Е.В. Бодянский, Е.А. Винокурова, А.И. Долотов // Проблемы управления и информатики. — 2013. — № 2. — С. 25–34. — Бібліогр.: 20 назв. — рос.
collection DSpace DC
container_title Проблемы управления и информатики
description Розглянуто задачу нечіткого кластерування даних за умов наявності класів, що перетинаються. Для розв’язання задачі введено архітектуру та алгоритм навчання нечіткої спайк-нейронної мережі, що узагальнює нейронні мережі третього покоління, які нині інтенсивно розвиваються і мають низку переваг над традиційними системами обчислювального інтелекту. Спайк-нейрон описано як нелінійну динамічну систему, що спрощує його апаратну реалізацію. Для задач з високою вимірністю вхідних векторів-образів запропоновано використовувати гібридну архітектуру, яка ґрунтується на поєднанні каскадної та МГУА-нейронних мереж із самонавчальними спайк-нейронними мережами як вузлами та забезпечує підвищену швидкість оброблення інформації. Fuzzy clustering task under condition of overlapping classes is considered. To solve the task, the paper introduces architecture and learning algorithm of fuzzy spiking neural network generalizing neural networks of the third generation that are intensively developing recently and have some advantages as compared to conventional computational intelligence systems. The spiking neuron is described as a nonlinear dynamic system that simplifies its hardware implementation. Hybrid architecture is proposed that is based on combining cascade and GMDH neural networks with self-learning spiking neural networks utilized as nodes and ensures rapid information processing.
first_indexed 2025-12-07T18:23:04Z
format Article
fulltext © Е.В. БОДЯНСКИЙ, Е.А. ВИНОКУРОВА, А.И. ДОЛОТОВ, 2013 Международный научно-технический журнал «Проблемы управления и информатики», 2013, № 2 25 УДК 004.8:004.032.26 Е.В. Бодянский, Е.А. Винокурова, А.И. Долотов САМООБУЧАЮЩАЯСЯ КАСКАДНАЯ СПАЙК-НЕЙРОННАЯ СЕТЬ ДЛЯ НЕЧЕТКОЙ КЛАСТЕРИЗАЦИИ НА ОСНОВЕ МЕТОДА ГРУППОВОГО УЧЕТА АРГУМЕНТОВ Введение Среди многообразия средств вычислительного интеллекта для задач обра- ботки данных в условиях отсутствия априорной информации, которые требуют быстродействующих методов решения, самообучающиеся спайк-нейронные се- ти (ССНС) [1–3] становятся все более привлекательными как с теоретической точ- ки зрения (будучи более реалистичными моделями биологических нейронов [1]), так и с практической — за счет высоких вычислительных возможностей и значи- тельного быстродействия в аппаратной реализации [4]. В последние два десятиле- тия ССНС успешно применяются для решения различных задач обработки данных, в частности для обработки сложных изображений, в том числе и спутниковых [5, 6]. Область применения спайк-нейронных сетей может быть расширена благодаря синтезу гибридных систем на основе спайк-нейронных сетей и методов нечеткой логики (самообучающиеся фаззи-спайк-нейронные сети — СФСНС) [7–9], что позволяет использовать такие сети в задачах, где классы перекрываются. Кроме того, универсализирован подход к описанию архитектуры спайк-нейронных сетей в терминах, позволяющих легко реализовывать их на аппаратном уровне и иссле- довать протекающие в них процессы [7, 10]. Наряду с указанными преимуществами спайк-нейронные сети обладают и ря- дом недостатков, требующих дальнейшего усовершенствования. Одним из наибо- лее существенных недостатков является структурная сложность как в целом спайк-нейронной сети, так и ее элементов — спайк-нейронов, что затрудняет их реализацию. Прежде всего следует отметить архитектуру составного синапса, со- единяющего рецепторный нейрон со спайк-нейроном [11]. Эта конструкция со- стоит из целого набора подсинапсов, каждый представляет собой преобразователь времяимпульсного сигнала в непрерывный. Другим структурно сложным элемен- том архитектуры спайк-нейронной сети является слой пулов рецепторных нейро- нов [5]: каждая компонента входного сигнала обрабатывается пулом, состоящим в общем случае из наборов рецепторных нейронов нескольких типов. Также необ- ходимо упомянуть о самом спайк-нейроне, который должен накапливать посту- пающие через синапсы сигналы и реализовывать механизмы возбуждения, когда генерируется выходной спайк, и рефрактерности, когда нейрон нечувствителен к входным сигналам. Приведенные примеры сложности архитектуры спайк-ней- ронных сетей ощутимы для программных реализаций, однако нивелируются в ап- паратных реализациях, поддерживающих параллельные вычисления. Немаловажным недостатком спайк-нейронных сетей является также наличие настраиваемых параметров их архитектуры, для которых в общем случае не су- ществует общих рекомендаций по подбору соответствующих значений, вслед- ствие чего приходится определять их эмпирическим путем. К таким параметрам, в первую очередь, можно отнести количественный и качественный состав пулов рецепторных нейронов, количество подсинапсов в составном синапсе, количество слоев спайк-нейронов (для многослойных сетей) и количество спайк-нейронов 26 ISSN 0572-2691 в каждом скрытом слое. С точки зрения сложности архитектуры, наиболее кри- тичны параметры здесь — пулы рецепторных нейронов, ибо каждый такой пул может в разы увеличивать размерность компонент входного сигнала, резко увели- чивая, соответственно, количество составных синапсов, соединяющих рецептор- ные нейроны со спайк-нейронами. Одним из возможных решений этой проблемы, дающих рекомендации относительно количества и настройки рецепторных нейронов, является применение фаззи-рецепторных нейронов [7], когда эксперт в предметной области, обладающий некими априорными знаниями о решаемой проблеме, может инкорпорировать их в архитектуру пула рецепторных нейронов подобно тому, как формируются лингвистические переменные в системах нечет- кого вывода. Однако такой подход эффективен лишь при наличии априорной ин- формации о свойствах входного сигнала, при ее отсутствии слой рецепторных нейронов может чрезвычайно усложниться, особенно когда размерность входного сигнала достаточно высока. В данной статье предлагается метод адаптивного формирования пула рецеп- торных нейронов в первом скрытом слое самообучающейся фаззи-спайк-ней- ронной сети путем выявления наиболее значимых компонент входного сигнала на основе метода группового учета аргументов (МГУА). Архитектура самообучающейся каскадной спайк-нейронной сети Общая архитектура предлагаемой самообучающейся каскадной спайк-ней- ронной сети для нечеткой кластеризации на основе МГУА представлена на рис. 1. Синтез сети базируется на идеях, лежащих в основе синтеза каскадных [12–14] и МГУА-нейронных сетей [15–17]. В первом скрытом слое (на рис. 1 обозначен индексом ]0[ ) в качестве узлов используются СФСНС со всеми возможными комбинациями входов по два. Каж- дая спайк-нейронная сеть обучается с помощью однотипных процедур и на сле- дующий слой передает такие свои параметры (общий выход узла-сети y обозначен на рисунке утолщенной сплошной линией): использованные входы (для сети ]0[ 2SNN , например, 1x и 3x ), уровни принадлежности входных образов )( 2],0[ , центры спайк-нейронов ( 2],0[c ). Второй скрытый слой (SL на рис. 1) на основе анализа свойств обученных СФСНС выполняет их селекцию, упорядочивая сети (а по сути, комбинации входных компонент по два) по какому-либо индексу достоверности кластериза- ции (на рисунке эта упорядоченность обозначена нижним индексом в скобках). ]0[ 1SNN SL  x1(k) x2(k) xn(k) ]0[ 2 nC SNN   ]0[ )1(y ]0[ )2(y ]0[ )3(y  ]0[ 2SNN ]0[ )(ay ]0[ )( 2 nC y ]1[SNN ]1[y ]1[XBI ]2[SNN ]2[XBI ]2[y ][bSNN ][XBI b ][by Рис. 1 Далее упорядоченность СФСНС по индексу достоверности используется для построения каскадов СФСНС, комбинирующих с каждым шагом большее число входов (один-два новых входа на каждом последующем каскаде). Так, в первом Международный научно-технический журнал «Проблемы управления и информатики», 2013, № 2 27 каскаде СФСНС ]1[SNN строится на основе комбинации компонент входного сигнала, которые использовались для лучших в смысле индекса достоверности кластеризации фаззи-спайк-нейронных сетей первого скрытого слоя их выходы ]0[ )1(y и ]0[ )2(y . Для ]1[SNN в блоке ]1[XBI вычисляется индекс достоверности кла- стеризации, и если он улучшился по сравнению с лучшей сетью первого скрытого слоя, синтезируется сеть ]2[SNN для второго каскада, где комбинируются компо- ненты входного сигнала из , ]0[ )1(y ]0[ )2(y и ]0[ )3(y . Далее выполняется проверка каче- ства работы сети и принимается решение о формировании следующего каскада. Очевидно, для получения сети ][bSNN каскада, где скомбинированы все началь- ные входы, нет необходимости проверять все сети первого слоя (выход последней сети, которая еще необходима для синтеза ,][bSNN обозначен на рис. 1 как ). ]0[ )(ay Таким образом, в процессе наращивания каскадов самообучающихся фаззи- спайк-нейронных сетей происходит отбор значимых для решения конкретной за- дачи компонент входного сигнала и соответственно определяется архитектура слоя рецепторных нейронов для наиболее эффективной сети. В случае, когда для построения наиболее эффективной сети достаточно двух входов, будет отобрана сеть первого скрытого слоя с сигналом . ]0[ )1(y Если же для решения задачи необхо- димы все входы, будет отобрана сеть последнего каскада с выходом .][by Предложенная самообучающаяся каскадная спайк-нейронная сеть может адаптивно формировать наилучшую СФСНС из своих узлов, подстраивая под конкретные условия свою каскадную архитектуру и, соответственно, определяя структуру первого скрытого слоя такой сети. Следует отметить, что второй скры- тый слой всех СФСНС-узлов каскадной сети имеет постоянное число спайк- нейронов, определяемое числом кластеров в обрабатываемой выборке данных. Самообучающаяся фаззи-спайк-нейронная сеть как узел каскадной сети Как отмечалось выше, узлом предложенной каскадной сети выступает СФСНС с определенным числом входов. Общая архитектура СФСНС представлена на рис. 2. Сеть состоит из трех слоев: слоя рецепторных нейронов, преобразовывающего входные образы в векторы спайков, слоя спайк-нейронов, где происходит опреде- ление центров кластеров, и выходного слоя нечеткой кластеризации, который при необходимости может быть деактивирован выключателем S. В целях упрощения аппаратной реализации спайк-нейронной сети архитектура слоя спайк-нейронов представлена в настоящей работе с позиций теории автоматического управления на основе преобразования Лапласа [7]. Первый скрытый слой СФСНС синтезируется для выполнения популяцион- ного кодирования входного сигнала. Он функционирует таким образом, что каж- дая компонента ),(kxi ,,1 ni  входного сигнала )(kx размерностью n обрабаты- вается пулом из h рецепторных нейронов ,liRN .,1 hl  Очевидно, в общем случае для каждой компоненты возможно различное количество рецепторных нейронов ih в пуле. Для простоты изложения примем, что число рецепторных нейронов в пулах всегда одинаково. Активационные функции рецепторных нейронов в пуле имеют колоколооб- разную форму (как правило, это гауссианы), смещены относительно одна другой и пересекаются. По мере необходимости может вводиться порог чувствительно- сти рецепторного нейрона. В общем случае время возбуждения спайка, сгенери- 28 ISSN 0572-2691 рованного рецепторным нейроном liRN в ответ на входной сигнал ),(kxi лежит в некотором интервале ,],0[}1{ ]0[ maxt который называют интервалом кодирова- ния. Время возбуждения спайка определяется выражением        ,),)((1 ,),)((,)),)((1( ))(( .r.n ]0[ .r.n ]0[]0[]0[ max]0[ lilii liliililii ili ckx ckxckxt kxt (1) где    — округление к меньшему, ),,(  ,]0[ lic li и r.n. — соответственно ак- тивационная функция, центр, ширина и зона нечувствительности рецепторного нейрона. Легко видеть, что чем ближе )(kxi к центру ]0[ lic рецепторного нейрона ,liRN тем раньше нейрон генерирует спайк )).(( ]0[ kxt ili В настоящей работе в ка- честве активационных функций спайк-нейронов используются гауссианы . 2 ))(( exp),)(( 2 2]0[ ]0[            li lii lilii ckx ckx (2) Слой рецепторных нейронов выполняет две основные функции: 1) преобра- зовывает входной сигнал в векторы спайков; 2) каждый пул слоя повышает раз- мерность компонент входного сигнала, что значительно улучшает вычислитель- ные характеристики спайк-нейронной сети [5].   ... ... ... ... ... ... ... ... A B A A B B ...   x1(k) x2(k) xn(k) RN1,1 RN2,1 RNh,1 RN1,2 RN2,2 RNh,2 RN1,n RN2, n RNh,n s.n. s.n. s.n. SN1 SN2 SNm  1 2 )(  1 2 )(  1 2 )( 1(x(k)) 2(x(k)) m(x(k)) ))(( ]1[ 1 kxt ))((]1[ 2 kxt ))((]1[ kxtm Рис. 2 Международный научно-технический журнал «Проблемы управления и информатики», 2013, № 2 29 Как уже отмечалось, спайк-нейроны соединены с рецепторными нейронами составными синапсами. Составной синапс jliMS представляет собой структуру, сформированную q соединенными параллельно подсинапсами (рис. 3). Каждый подсинапс состоит из временной задержки ,pd ,01  pp dd ,]0[ max 1 tdd q  генератора постсинаптического потенциала и настраиваемого весового коэффи- циента p jliw ( qp ,1 ). Получая на своем входе спайк ))(( ]0[ kxt ili от li-го рецепторного нейрона, p-й подсинапс j-го спайк-нейрона генерирует запаздывающий взвешенный постси- наптический потенциал ),(tu p jli а составной синапс jliMS — результирующий постсинаптический потенциал ).(tu jli В терминах преобразования Лапласа пере- даточную функцию p-го подсинапса составного синапса jliMS и синапса в целом можно представить соответственно в форме , )1( )( 2 PSP 1 PSP     s ew sU sdp jlip jli p (3)        q p sdp jli q p p jlijli s ew sUsU p 1 2 PSP 1 PSP 1 )1( )()( , (4) где PSP — постоянная затухания постсинаптического потенциала, s — оператор Лапласа. Постсинаптические потенциалы, поступающие в сому спайк-нейрона, фор- мируют ее мембранный потенциал ),(tu j его изображение до момента возбужде- ния имеет вид . )1( )( 1 1 1 2 PSP 1 PSP         n i h l q p sdp jli j s ew sU p (5) По достижении мембранным потенциалом некоторого порогового значения s.n. спайк-нейрон jSN возбуждается и генерирует выходной спайк ))(( ]1[ kxt j . Механизм возбуждения спайк-нейрона можно представить элементарным релей- ным элементом , 2 1))(sign( )),(( s.n. s.n.relay   tu tu j j (6) (здесь )(sign  — сигнум-функция), который последовательно соединен с диффе- ренцирующим звеном и обычным диодом. Негативный постспайковый потенциал, характеризующий рефрактерность спайк-нейрона, можно легко смоделировать отрицательной обратной связью, состоящей из апериодического звена второго порядка, как показано на рис. 3. Третий слой СФСНС выполняет нечеткую кластеризацию входных данных. Принадлежность входного образа )(kx к j-му кластеру определяется на основе времени возбуждения спайк-нейронов: , )))((( )))((( ))(( 1 )1/(2]1[ )1/(2]1[       m j j kxt kxt kx (7) где  — фаззификатор, определяющий меру нечеткости конечного разбиения, m — количество кластеров. 30 ISSN 0572-2691 Рис. 3 Международный научно-технический журнал «Проблемы управления и информатики», 2013, № 2 31 Обучение СФСНС основывается на стандартном алгоритме обучения спайк- нейронных сетей, модифицированном для нечеткого варианта на базе правила «победитель получает больше» [7]: ),()()()()1( ~w p jlijj p jli p jli tLtKKwKw  (8) , )1(2 )( exp)1()( 2               p jlip jli t tL (9) , ))1/((ln2 1 2    (10) )),(())(( ]1[]1[ ~~ kxtkxtt jjjj  (11) )).(())(( ]1[]0[ kxtdkxtt j p ili p jli  (12) Здесь K — номер текущей эпохи обучения, 0)(w  — параметр шага, опреде- ляющий скорость обучения, )( — функция топологического соседства, j ~ — номер нейрона-победителя на текущей эпохе, ,  и  — параметры формы функции обучения. Как известно, поведение спайк-нейрона в некотором смысле аналогично ра- диально-базисной функции [11]: чем ближе входной образ к центру спайк- нейрона, тем раньше он возбуждается. Такое его свойство позволяет расширять возможности спайк-нейронных сетей, используя в них классические подходы ин- теллектуального анализа данных, основанные на широко известных метриках. В частности, радиально-базисные свойства спайк-нейрона дали возможность син- тезировать слой нечеткой кластеризации для сетей третьего поколения, представ- ленный выше [6]. Развивая далее этот поход, в контексте решаемой задачи центры спайк-нейронов можно успешно использовать для расчета индекса достоверности кластеризации, на основе которого синтезируется слой селекции каскадной спайк- нейронной сети, описанный далее. Определенную трудность здесь вызывает от- сутствие общепринятого подхода к описанию центра спайк-нейрона. В настоящей работе предлагается использовать центр спайк-нейрона по Горену, успешно апро- бированный на практике [18]: ,),...,,,...,,( T]1[]1[ 2, ]1[ 1, ]1[ 2,1, ]1[ 1,1, ]1[ jhnjhjhjjj cccccc  (13) .}1,1{max ]1[ jlijabjli dnbhadc  (14) Здесь jlid — средневзвешенная временная задержка синапса ,jliMS которую в общем случае можно представить на основе среднего Колмогорова [19]:             q p p jli q p pp jlijli wdfwfd 11 1 /)( , (15) где )(f – непрерывная строго монотонная функция, )(1 f — функция, обратная к ).(f В этом случае расстояние между входным образом и центром спайк- нейрона принимает форму .))(()( 2]1[]0[2]1[ jj ckxtckx  (16) Следует отметить, что центр по Горену не всегда корректно описывает поведение спайк-нейрона, поэтому отыскание более точного выражения для центра спайк- нейрона само по себе является актуальной задачей. 32 ISSN 0572-2691 Слой селекции самообучающихся фаззи-спайк-нейронных сетей Селекция СФСНС во втором скрытом слое каскадной спайк-нейронной сети производится на основе индекса достоверности кластеризации, в качестве которого предлагается использовать широко известный индекс Кси-Бени )(XBI [20]. Выбор этого индекса основывается на том, что он оценивает такие важные для нечеткого разбиения характеристики, как компактность и сепарабельность кластеров, а также учитывает информацию о размещении образов один относительно другого. В принятых обозначениях индекс Кси-Бени рассчитывается в виде , min ))(())(( 2]1[]1[ 1 1 2]1[]0[ jk jk m j N k jj ccN ckxtkx XBI         (17) где — объем входной выборки. Как видно, индекс основывается на центрах спайк-нейронов, выше описан подход к их вычислению. Для каждой СФСНС-узла первого скрытого слоя рассчитывается ее XBI и все сети упорядочиваются по его возрастанию. Как описывалось ранее, две сети с наименьшим значением XBI используются для синтеза СФСНС в первом каскаде. Для ]1[SNN рассчитывается значение XBI и, если оно уменьшилось, добавляют следующий каскад. Таким образом, второй скрытый слой, по сути, является подсистемой отбора не только СФСНС первого слоя, но и сетей последующих каскадов. Сеть с наименьшим значением XBI применяется для решения поставленной задачи. Если характер входного сигнала меняется, слой селекции отбирает другую, более под- ходящую для этого СФСНС. Экспериментальное моделирование Эффективность работы предложенной самообучающейся каскадной спайк- нейронной сети для нечеткой кластеризации продемонстрирована на примере об- работки спутникового изображения (рис. 4). С этой целью оригинальное изобра- жение (рис. 4, а) представлено в виде набора пикселов, каждый из которых харак- теризуется пятью параметрами — тремя RGB-компонентами и двумя простран- ственными координатами представленных на изображении объектов. Для формирования обучающей выборки случайным образом отобрано 25 % пикселов (рис. 4, б). Количество кластеров (и соответственно количество спайк-нейронов во втором слое всех синтезированных СФСНС) установлено 8, количество эпох обучения сетей-узлов — 3. В процессе наращивания архитектуры каскадной сети был сформирован один каскад и наиболее эффективной отобрана сеть этого каскада, имеющая три входа, которые соответствуют трем RGB-компонентам пикселов. Результат обработки изображения такой сетью приведен на рис. 4, в. Для сравнения на рис. 4, г показан результат обработки оригинального изображения лучшей сетью из первого скрыто- го слоя (два входа, соответствующие зеленому и синему компонентам пикселов). Проводя анализ результатов работы каскадной сети, можно сделать вывод, что заданное перед началом обучения небольшое количество кластеров определило, ка- кие именно входы будут отобраны: наиболее значимыми были выбраны входы для RGB-компонент и соответственно синтезированная сеть выполнила сегментирова- ние изображения по цвету (зеленые насаждения, постройки и т.п.). Таким образом, можно заключить, что характер эволюции архитектуры предложенной сети в про- цессе обучения в определенной мере зависит от целей, которые ставит исследова- тель, и которые влияют на задание первоначальных параметров сети. Международный научно-технический журнал «Проблемы управления и информатики», 2013, № 2 33 а б в г Рис. 4 Заключение В настоящей работе предложена самообучающаяся каскадная спайк-нейрон- ная сеть для нечеткой кластеризации данных на основе МГУА, задача которой — подбор оптимальной архитектуры СФСНС для решения конкретной задачи. В ка- честве индекса достоверности кластеризации в слое селекции спайк-нейронных сетей выбран индекс Кси-Бени, расчет которого выполнен на основе центров спайк-нейронов по Горену. Архитектура спайк-нейронов описана в терминах пре- образования Лапласа, что позволяет упростить аппаратную реализацию предло- женной сети. На примере обработки спутникового изображения продемонстрирована эффектив- ность работы самообучающейся каскадной спайк-нейронной сети. Отмечено, что про- цесс наращивания архитектуры сети зависит от целей, которые ставит исследователь. Дальнейшее развитие предложенного подхода заключается в использовании в узлах каскадной сети многослойных СФСНС и синтезе метода для автоматиче- ской настройки их архитектуры. Также практическое значение имеет поиск более подходящего для спайк-нейронных сетей индекса достоверности кластеризации, который основывался бы лишь на их выходных сигналах и не требовал дополни- тельных расчетов центров спайк-нейронов. Є.В. Бодянський, О.А. Винокурова, А.І. Долотов САМОНАВЧАЛЬНА КАСКАДНА СПАЙК-НЕЙРОННА МЕРЕЖА ДЛЯ НЕЧІТКОЇ КЛАСТЕРИЗАЦІЇ НА ОСНОВІ МЕТОДУ ГРУПОВОГО УРАХУВАННЯ АРГУМЕНТІВ Розглянуто задачу нечіткого кластерування даних за умов наявності класів, що перетинаються. Для розв’язання задачі введено архітектуру та алгоритм нав- чання нечіткої спайк-нейронної мережі, що узагальнює нейронні мережі тре- тього покоління, які нині інтенсивно розвиваються і мають низку переваг над традиційними системами обчислювального інтелекту. Спайк-нейрон описано як нелінійну динамічну систему, що спрощує його апаратну реалізацію. Для за- дач з високою вимірністю вхідних векторів-образів запропоновано використо- вувати гібридну архітектуру, яка ґрунтується на поєднанні каскадної та МГУА- нейронних мереж із самонавчальними спайк-нейронними мережами як вузлами та забезпечує підвищену швидкість оброблення інформації. 34 ISSN 0572-2691 Ye.V. Bodyanskiy, Е.А. Vynokurova, A.I. Dolotov SELF-LEARNING CASCADE SPIKING NEURAL NETWORK FOR FUZZY CLUSTERING BASED ON GROUP METHOD OF DATA HANDLING Fuzzy clustering task under condition of overlapping classes is considered. To solve the task, the paper introduces architecture and learning algorithm of fuzzy spiking neural network generalizing neural networks of the third generation that are intensively de- veloping recently and have some advantages as compared to conventional computation- al intelligence systems. The spiking neuron is described as a nonlinear dynamic system that simplifies its hardware implementation. Hybrid architecture is proposed that is based on combining cascade and GMDH neural networks with self-learning spiking neural networks utilized as nodes and ensures rapid information processing. 1. Gerstner W., Kistler W.M. Spiking neuron models. — Cambridge : The Cambridge University Press, 2002. — 400 p. 2. Maass W. Networks of spiking neurons: the third generation of neural network models // Neural Networks. — 1997. — 10, N 9. — P. 1659-1671. 3. Hesham H. Amin. Spiking neural networks: learning, applications, and analysis. — Saarbruecken : Lambert Academic Publishing, 2011. — 132 р.. 4. Maass W., Bishop C.M. Pulsed neural networks. — Cambridge : MIT Press, 1998. — 408 p. 5. Bohte S.M., Kok J.S., La Poutre H. Unsupervised clustering with spiking neurons by sparse tem- poral coding and multi-layer RBF networks // IEEE Transactions on Neural Networks. — 2002. — 13. — P. 426–435. 6. Bodyanskiy Ye., Dolotov A. Image processing using self-learning fuzzy spiking neural network in the presence of overlapping classes // BEC 2008 : Proc. of the 11th International Biennial Baltic Electron. Conf. (October 6–8, 2008, Tallinn/Laulasmaa). — Tallinn : Tallinn University of Tech- nology, 2008. — P. 213–216. 7. Bodyanskiy Ye., Dolotov A. Analog-digital self-learning fuzzy spiking neural network in image processing problems / Ed. Yung-Sheng Chen // Image Processing. — Vukovar : INTECH, 2009. — P. 357–380. 8. Bodyanskiy Ye., Dolotov A. A self-learning spiking neural network for fuzzy clustering task // Sci. Proc. of Riga Techn. University : Inform. Technology and Management Sci. — 2008. — 36. — P. 27–33. 9. Bodyanskiy Ye., Dolotov A. Hybrid systems of computational intelligence evolved from self- learning spiking neural network // Methods and Instruments of Artificial Intelligence / Eds. G. Setlak, K. Markov. — Rzeszow : Rzeszow University of Technology, 2010. — P. 17–24. – (Intern. Book Series «Inform. Sci. and Comput.»; N 20). 10. Bodyanskiy Ye., Dolotov A. Digital model of spiking neuron based on the Z-transform // BEC 2012 : Proc. of the 13th Intern. Biennial Baltic Electron. Conf. (October 3–5, 2012, Tal- linn/Laulasmaa). — Tallinn : Tallinn University of Technology, 2012. — P. 207–210. 11. Natschlaeger T., Ruf B. Spatial and temporal pattern analysis via spiking neurons // Network: Comput. in Neural Systems. — 1998. — 9. — P. 319–332. 12. Fahlman S.E., Lebiere C. The cascade-correlation learning architecture // Advances in Neural In- formation Processing Systems / Ed. D.S. Touretzky. — San Mateo, CA : Morgan Kaufman, 1990. — P. 524–532. 13. Bodyanskiy Ye., Grimm P., Teslenko N. Evolving cascade neural network based on multidimen- sional Epanechnikov’s kernels and its learning algorithm // Intern. Journ. Inform. Technologies & Knowledge. — 2011. — 5, N 1. — P. 25–30. 14. Bodyanskiy Ye., Vynokurova E., Teslenko N. Cascade GMDH-wavelet-neuro-fuzzy network // Proc. of the 4th Intern. Workshop on Inductive Modelling «IWIM 2011» — Kyiv, 2011. — P. 22–30. 15. Ivakhnenko A.G. Polynomial theory of complex systems // IEEE Transact. on Systems, Man and Cybernetics. — 1971. — 1, N 4. — P. 364–378. 16. Ивахненко А.Г. Долгосрочное прогнозирование и управление сложными системами. — Киев : Техніка, 1975. — 312 с. 17. Ивахненко А.Г., Степашко В.С. Помехоустойчивость моделирования. — Киев : Наук. дум- ка, 1985. — 216 с. 18. Bodyanskiy Ye., Dolotov A., Pliss I. Adaptive Gustafson–Kessel fuzzy clustering algorithm based on self-learning spiking neural network / Ed. by G. Setlak, K. Markov // Intelligent Information and Engineering Systems. — Rzeszow : Rzeszow University of Technology, 2009. — P. 19–26. — (Intern. Book Series «Inform. Sci. and Comput.»; N 13). 19. Колмогоров А.Н. Математика и механика. — М. : Наука, 1985. — 470 с. 20. Rutkowski L. Computational intelligence: Methods and techniques. — Berlin; Heidelberg : Springer-Verlag, 2008. — 514 p. Получено 03.12.2012
id nasplib_isofts_kiev_ua-123456789-207597
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 0572-2691
language Russian
last_indexed 2025-12-07T18:23:04Z
publishDate 2013
publisher Інститут кібернетики ім. В.М. Глушкова НАН України
record_format dspace
spelling Бодянский, Е.В.
Винокурова, Е.А.
Долотов, А.И.
2025-10-10T10:16:39Z
2013
Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов / Е.В. Бодянский, Е.А. Винокурова, А.И. Долотов // Проблемы управления и информатики. — 2013. — № 2. — С. 25–34. — Бібліогр.: 20 назв. — рос.
0572-2691
https://nasplib.isofts.kiev.ua/handle/123456789/207597
004.8:004.032.26
10.1615/JAutomatInfScien.v45.i3.30
Розглянуто задачу нечіткого кластерування даних за умов наявності класів, що перетинаються. Для розв’язання задачі введено архітектуру та алгоритм навчання нечіткої спайк-нейронної мережі, що узагальнює нейронні мережі третього покоління, які нині інтенсивно розвиваються і мають низку переваг над традиційними системами обчислювального інтелекту. Спайк-нейрон описано як нелінійну динамічну систему, що спрощує його апаратну реалізацію. Для задач з високою вимірністю вхідних векторів-образів запропоновано використовувати гібридну архітектуру, яка ґрунтується на поєднанні каскадної та МГУА-нейронних мереж із самонавчальними спайк-нейронними мережами як вузлами та забезпечує підвищену швидкість оброблення інформації.
Fuzzy clustering task under condition of overlapping classes is considered. To solve the task, the paper introduces architecture and learning algorithm of fuzzy spiking neural network generalizing neural networks of the third generation that are intensively developing recently and have some advantages as compared to conventional computational intelligence systems. The spiking neuron is described as a nonlinear dynamic system that simplifies its hardware implementation. Hybrid architecture is proposed that is based on combining cascade and GMDH neural networks with self-learning spiking neural networks utilized as nodes and ensures rapid information processing.
ru
Інститут кібернетики ім. В.М. Глушкова НАН України
Проблемы управления и информатики
Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов
Самонавчальна каскадна спайк-нейронна мережа для нечіткої кластеризації на основі методу групового урахування аргументів
Self-Learning Cascade Spiking Neural Network for Fuzzy Clustering Based on Group Method of Data Handling
Article
published earlier
spellingShingle Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов
Бодянский, Е.В.
Винокурова, Е.А.
Долотов, А.И.
title Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов
title_alt Самонавчальна каскадна спайк-нейронна мережа для нечіткої кластеризації на основі методу групового урахування аргументів
Self-Learning Cascade Spiking Neural Network for Fuzzy Clustering Based on Group Method of Data Handling
title_full Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов
title_fullStr Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов
title_full_unstemmed Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов
title_short Самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов
title_sort самообучающаяся каскадная спайк-нейронная сеть для нечеткой кластеризации на основе метода группового учета аргументов
url https://nasplib.isofts.kiev.ua/handle/123456789/207597
work_keys_str_mv AT bodânskiiev samoobučaûŝaâsâkaskadnaâspaikneironnaâsetʹdlânečetkoiklasterizaciinaosnovemetodagruppovogoučetaargumentov
AT vinokurovaea samoobučaûŝaâsâkaskadnaâspaikneironnaâsetʹdlânečetkoiklasterizaciinaosnovemetodagruppovogoučetaargumentov
AT dolotovai samoobučaûŝaâsâkaskadnaâspaikneironnaâsetʹdlânečetkoiklasterizaciinaosnovemetodagruppovogoučetaargumentov
AT bodânskiiev samonavčalʹnakaskadnaspaikneironnamerežadlânečítkoíklasterizacíínaosnovímetodugrupovogourahuvannâargumentív
AT vinokurovaea samonavčalʹnakaskadnaspaikneironnamerežadlânečítkoíklasterizacíínaosnovímetodugrupovogourahuvannâargumentív
AT dolotovai samonavčalʹnakaskadnaspaikneironnamerežadlânečítkoíklasterizacíínaosnovímetodugrupovogourahuvannâargumentív
AT bodânskiiev selflearningcascadespikingneuralnetworkforfuzzyclusteringbasedongroupmethodofdatahandling
AT vinokurovaea selflearningcascadespikingneuralnetworkforfuzzyclusteringbasedongroupmethodofdatahandling
AT dolotovai selflearningcascadespikingneuralnetworkforfuzzyclusteringbasedongroupmethodofdatahandling