Коэволюционирующие нейронные сети прямого распространения
Запропоновано еволюційний алгоритм визначення архітектури нейронних мереж прямого розповсюдження та їх навчання, заснований на коеволюційних моделях кооперації і конкуренції з використанням алгоритмів кластеризації для розбиття основної задачі синтезу нейронної мережі на підзавдання, які вирішуються...
Збережено в:
| Дата: | 2016 |
|---|---|
| Автори: | , |
| Формат: | Стаття |
| Мова: | Russian |
| Опубліковано: |
Інститут кібернетики ім. В.М. Глушкова НАН України
2016
|
| Назва видання: | Проблемы управления и информатики |
| Теми: | |
| Онлайн доступ: | https://nasplib.isofts.kiev.ua/handle/123456789/208257 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Цитувати: | Коэволюционирующие нейронные сети прямого распространения / О.Г. Руденко, А.А. Бессонов // Проблемы управления и информатики. — 2016. — № 5. — С. 63-74. — Бібліогр.: 26 назв. — рос. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraine| id |
nasplib_isofts_kiev_ua-123456789-208257 |
|---|---|
| record_format |
dspace |
| spelling |
nasplib_isofts_kiev_ua-123456789-2082572025-10-24T00:00:57Z Коэволюционирующие нейронные сети прямого распространения Нейронні мережі прямого розповсюдження, що коеволюціонують Coevolving feedforward neural networks Руденко, О.Г. Бессонов, А.А. Методы обработки информации Запропоновано еволюційний алгоритм визначення архітектури нейронних мереж прямого розповсюдження та їх навчання, заснований на коеволюційних моделях кооперації і конкуренції з використанням алгоритмів кластеризації для розбиття основної задачі синтезу нейронної мережі на підзавдання, які вирішуються в окремих субпопуляціях. Запропонований алгоритм реалізує середовище, що сприяє співробітництву та конкуренції популяцій, в яких кожна особина являє собою нейронну мережу прямого розповсюдження, а вся сукупність популяцій несе відповідальність за остаточне вирішення поставленого завдан ня. Результати імітаційного моделювання підтверджують ефективність запропонованого методу синтезу нейронних мереж прямого розповсюдження. An evolutionary algorithm of determining the architecture of feedforward neural networks and performing their training is proposed, based on the co-evolutionary models of cooperation and competition with using of clustering algorithms for partitioning the main problem of neural network synthesis into sub-tasks to be undertaken in certain sub-populations. The proposed algorithm implements an environment that is conducive to cooperation and competition of populations in which every individual is a feedforward neural network, and the totality of the populations is responsible for the final solution of the problem. The simulation results confirm the effectiveness of the proposed method of feedforward neural networks synthesis. 2016 Article Коэволюционирующие нейронные сети прямого распространения / О.Г. Руденко, А.А. Бессонов // Проблемы управления и информатики. — 2016. — № 5. — С. 63-74. — Бібліогр.: 26 назв. — рос. 0572-2691 https://nasplib.isofts.kiev.ua/handle/123456789/208257 519.71 10.1615/JAutomatInfScien.v48.i9.30 ru Проблемы управления и информатики application/pdf Інститут кібернетики ім. В.М. Глушкова НАН України |
| institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| collection |
DSpace DC |
| language |
Russian |
| topic |
Методы обработки информации Методы обработки информации |
| spellingShingle |
Методы обработки информации Методы обработки информации Руденко, О.Г. Бессонов, А.А. Коэволюционирующие нейронные сети прямого распространения Проблемы управления и информатики |
| description |
Запропоновано еволюційний алгоритм визначення архітектури нейронних мереж прямого розповсюдження та їх навчання, заснований на коеволюційних моделях кооперації і конкуренції з використанням алгоритмів кластеризації для розбиття основної задачі синтезу нейронної мережі на підзавдання, які вирішуються в окремих субпопуляціях. Запропонований алгоритм реалізує середовище, що сприяє співробітництву та конкуренції популяцій, в яких кожна особина являє собою нейронну мережу прямого розповсюдження, а вся сукупність популяцій несе відповідальність за остаточне вирішення поставленого завдан ня. Результати імітаційного моделювання підтверджують ефективність запропонованого методу синтезу нейронних мереж прямого розповсюдження. |
| format |
Article |
| author |
Руденко, О.Г. Бессонов, А.А. |
| author_facet |
Руденко, О.Г. Бессонов, А.А. |
| author_sort |
Руденко, О.Г. |
| title |
Коэволюционирующие нейронные сети прямого распространения |
| title_short |
Коэволюционирующие нейронные сети прямого распространения |
| title_full |
Коэволюционирующие нейронные сети прямого распространения |
| title_fullStr |
Коэволюционирующие нейронные сети прямого распространения |
| title_full_unstemmed |
Коэволюционирующие нейронные сети прямого распространения |
| title_sort |
коэволюционирующие нейронные сети прямого распространения |
| publisher |
Інститут кібернетики ім. В.М. Глушкова НАН України |
| publishDate |
2016 |
| topic_facet |
Методы обработки информации |
| url |
https://nasplib.isofts.kiev.ua/handle/123456789/208257 |
| citation_txt |
Коэволюционирующие нейронные сети прямого распространения / О.Г. Руденко, А.А. Бессонов // Проблемы управления и информатики. — 2016. — № 5. — С. 63-74. — Бібліогр.: 26 назв. — рос. |
| series |
Проблемы управления и информатики |
| work_keys_str_mv |
AT rudenkoog koévolûcioniruûŝienejronnyesetiprâmogorasprostraneniâ AT bessonovaa koévolûcioniruûŝienejronnyesetiprâmogorasprostraneniâ AT rudenkoog nejronnímerežíprâmogorozpovsûdžennâŝokoevolûcíonuûtʹ AT bessonovaa nejronnímerežíprâmogorozpovsûdžennâŝokoevolûcíonuûtʹ AT rudenkoog coevolvingfeedforwardneuralnetworks AT bessonovaa coevolvingfeedforwardneuralnetworks |
| first_indexed |
2025-11-24T10:41:14Z |
| last_indexed |
2025-11-24T10:41:14Z |
| _version_ |
1849668009365340160 |
| fulltext |
© О.Г. РУДЕНКО, А.А. БЕССОНОВ, 2016
Международный научно-технический журнал
«Проблемы управления и информатики», 2016, № 5 63
МЕТОДЫ ОБРАБОТКИ ИНФОРМАЦИИ
УДК 519.71
О.Г. Руденко, А.А. Бессонов
КОЭВОЛЮЦИОНИРУЮЩИЕ НЕЙРОННЫЕ СЕТИ
ПРЯМОГО РАСПРОСТРАНЕНИЯ
Введение
В последнее время искусственные нейронные сети (ИНС) получили доста-
точно широкое распространение при решении задач идентификации, прогнозиро-
вания, управления, распознавания (речи, образов), классификации, сжатия и ко-
дирования информации и т.д.
Среди ИНС в первую очередь следует отметить такие сети прямого распро-
странения, как многослойный персептрон (МП) и радиально-базисные сети (РБС),
использующие соответственно аппроксимации нелинейного оператора )(f вида
,]]]...]))([( [)[()[()(ˆ T
1
112T11T
q
qqqqq bbkxWffWfWfkf (1)
),(),,(Ф)(ˆ T
0
1
0 kWwcxwwkf
N
i
iiii
(2)
где iW — вектор весовых параметров нейронов i-го слоя сети; ][if — активаци-
онная функция (АФ) i-го слоя; )(kx — вектор входных сигналов; bi — смещение
i-го нейрона; )(k — вектор выбранных базисных функций (БФ); iic , — цент-
ры и радиусы БФ соответственно; k — дискретное время.
Использование ИНС требует решения двух проблем. Первая — определе-
ние оптимальной архитектуры сети и оптимальных значений ее параметров. Она
несколько упрощается в случае использования РБС (2), так как данный тип сетей
содержит лишь один скрытый слой, и задача определения структуры сводится к
нахождению его оптимального количества нейронов. При этом количество нейро-
нов данного слоя не может превышать число различных входных векторов обуча-
ющей выборки. В случае же использования МП (1) необходимо определять как ко-
личество скрытых слоев, так и число нейронов каждого слоя. Обычно решение за-
дачи определения структуры ИНС осуществляется с помощью какого-либо
информационного критерия (например, Акаике или Шварца), позволяющего найти
некий компромисс между сложностью сети и точностью решений поставленной за-
дачи [1, 2].
Вторая проблема — нахождение оптимальных значений параметров сетей,
также решается по-разному для МП и РБС. Для МП обычно используется алго-
ритм обратного распространения ошибки, реализующий сложные в вычислитель-
ном отношении градиентные алгоритмы, а в РБС для настройки весовых парамет-
ров, центров и дисперсий (радиусов) применяются как градиентные алгоритмы,
так и относительно простые алгоритмы кластеризации [3], которые обычно не
64 ISSN 0572-2691
дают возможности определить оптимальное количество нейронов скрытого слоя,
а позволяют найти лишь некоторое локально-оптимальное решение.
Обе проблемы эффективно решаются с помощью эволюционных алгорит-
мов (ЭА) [4, 5], позволяющих, кроме того, оптимизировать объем обучающей вы-
борки, что обеспечивает уменьшение размерности решаемой задачи путем выбора
оптимальных подмножеств данных, используемых для обучения сети.
Следует отметить, что в последнее время указанные задачи все чаще стре-
мятся решать одновременно с помощью коэволюционирующих адаптивных си-
стем, т.е. систем, состоящих из разнообразных эволюционирующих групп особей,
которые действуют совместно для выполнения сложных вычислений или выра-
ботки совместного эффективного поведения. Подобные системы широко распро-
странены в природе, в социальных системах (экономических и политических) и в
искусственных адаптивных системах (нейронных, иммунных и др.).
Отличительные особенности коэволюционирующих систем заключаются в
следующем: во-первых, популяции могут иметь разный размер; во-вторых, эво-
люция в разных популяциях может проходить на основе различных алгоритмов;
в-третьих, альтернативные решения из разных популяций могут использоваться
для решения задач, отличающихся физической размерностью [6].
Взаимодействие между различными популяциями может приводить к двум
основным формам коэволюционирующих систем:
— системы, в которых реализуется кооперативное поведение (каждое дей-
ствие сформулировано на базе консенсуса особей на основе сотрудничества);
— системы, в которых реализуется конкурентное поведение (каждое действие
формулируется одной особью, выбранной по конкурсу для решения текущей задачи).
В области искусственных адаптивных систем представлены оба типа поведе-
ния. Типичные ИНС характеризуются, как правило, кооперативным поведением
благодаря суммированию в выходном слое сигналов, поступающих со скрытых
слоев нейронов. В самоорганизующихся ИНС (например, в сети Кохонена) реализу-
ется конкурентное поведение с помощью механизма разрешения конфликтов, обес-
печивающего выбор лишь одного победителя в любой ситуации (winner takes all).
Важно отметить, что оба типа систем (на основе сотрудничества и конкурен-
ции) могут нуждаться в коэволюции. Даже в конкурентной системе нескольким
элементам может потребоваться совместное существование и взаимная коэволю-
ция для формирования полного набора действий. Необходимо, тем не менее, от-
метить, что структуры, возникающие в кооперативных системах, могут суще-
ственно отличаться от тех, которые развиваются в конкурентных системах [7].
Кооперативная коэволюция [8] предполагает разбиение основной задачи на
несколько меньших подзадач, для решения которых использует стандартную эво-
люционную оптимизацию в целях постепенного решения основной проблемы.
При этом подзадачи рассматриваются как особи или модули и представляются в
виде субпопуляций. Каждая субпопуляция эволюционирует отдельно и их со-
трудничество осуществляется только при оценке фитнеса для соответствующих
особей в каждой субпопуляции.
Одной из основных причин использования кооперативной коэволюции в
ИНС является то, что она обеспечивает более разнообразные решения по сравне-
нию с другими ЭА, основанными на одной популяции [9]. При этом, однако, воз-
никает серьезная проблема разложения задачи на подзадачи, обусловленная необ-
ходимостью объединения в группы взаимодействующих компонент в целях ми-
нимизации взаимодействия между субпопуляциями [10]. В ИНС разложение
задачи на подзадачи осуществляются на уровне синапсов [11] и на уровне нейро-
нов [10]. При разложении на уровне нейронов число субкомпонент равно общему
Международный научно-технический журнал
«Проблемы управления и информатики», 2016, № 5 65
числу скрытых и выходных нейронов [12]. Субкомпоненты при таком подходе об-
разуют субпопуляции. Пригодность каждой особи для конкретной популяции оце-
нивается совместно с недоминирующими особями из других субпопуляций [13].
Эти методы разложения задачи показали свои сильные и слабые стороны при реше-
нии различных типов задач с помощью нейронных сетевых архитектур.
В данной статье предлагается эволюционный алгоритм определения архитек-
туры нейронных сетей прямого распространения и их обучения, основанный на
стратегиях кооперации и конкуренции. Алгоритм обучения реализует среду, спо-
собствующую сотрудничеству и конкуренции популяций, в которых каждая особь
представляет собой ИНС прямого распространения, а вся совокупность популя-
ций несет ответственность за окончательное решение поставленной задачи.
Многокритериальный метод обучения ИНС
на основе кооперативной коэволюции
Большое количество многокритериальных задач оптимизации (оптимизация
функций больших масштабов, обучение глубоких нейронных сетей, обучение ре-
куррентных нейронных сетей) привело к появлению множества их оптимальных
решений, известных как Парето-оптимальные [14–16]. Среди решений, лежащих в
Парето-оптимальном фронте, называемых недоминирующими, ни одно не являет-
ся лучше остальных с учетом всех целевых функций [17]. Любое недоминирую-
щее решение в рамках Парето-оптимального набора можно улучшить по какой-
либо целевой компоненте лишь путем ухудшения, по крайней мере, одной из
остальных его целевых составляющих [18].
Рассмотрим более подробно многокритериальный коэволюционный метод
обучения нейронных сетей на основе кооперации. При таком подходе каждая
нейронная сеть обучается с учетом нескольких целей (например, точность и
сложность сети). Решения, приемлемые для обеих целей, переносятся и сохраня-
ются. При кооперативной коэволюции лучшие особи используются как предста-
вители своей субпопуляции, а особи, оставшиеся внутри субпопуляции, ранжи-
руются в соответствии со значением их фитнес-функций.
Кооперативная оценка особи в субпопуляции осуществляется путем объеди-
нения данной особи со случайными недоминирующими особями в остальных
субпопуляциях. Затем особь оценивается для каждой заданной цели. После оце-
нивания всех особей в пределах субпопуляций оценивается вся субпопуляция и
определяются ее недоминирующие особи (по аналогии с NSGA-II [12]). Во время
первой итерации, когда недоминирующие особи неизвестны, особи оцениваются
путем объединения со случайными особями из других субпопуляций. Цикл за-
вершается, когда все субпопуляции эволюционировали. После этого происходит
их переоценка в целях проведения оценки новых особей, возникших в процессе
эволюции.
Следует отметить, что для МП и РБС подходы к разбиению сети на субпопу-
ляции несколько отличаются. Детально процесс разбиения глобальной задачи
многокритериального обучения МП на подзадачи, решаемые в отдельных субпо-
пуляциях и оценки их пригодности, поясняется на рис. 1, на котором представлен
общий вид всех субпопуляций в рамках коэволюции на основе кооперации [19].
В начале работы алгоритма каждая особь в субпопуляции стремится миними-
зировать каждую из целей фитнес-функции. Для оценки пригодности особи она
объединяется со случайными недоминирующими особями из остальных субпопу-
ляций. Затем все особи объединяются для формирования общего решения. Вы-
бранные особи из субпопуляций объединяются, формируя общую хромосому (ге-
нотип) и отображаются в нейронную сеть (фенотип). Затем полученная ИНС оце-
нивается с учетом различных целей. После этого значение фитнес-функции
полученной результирующей сети участвует в вычислении фитнес-функций тех
66 ISSN 0572-2691
особей (представителей субпопуляций), которые принимали участие в формиро-
вании данной сети. Затем весь процесс начинается снова для следующей особи.
Популяция 1 Популяция 2 Популяция N
Фитнес 1
Фитнес M
Фитнес 1
Фитнес M
Фитнес 1
Фитнес M
Фитнес 1
Представитель
субпопуляции
Генотип
Фенотип
Слой 1 Слой 2 Слой L
Слой 1
x1
xM
y1
yk
x1
xM
y1
yk
МП РБС
i-й нейрон i-й нейрон
Фитнес M
5b
1,iw
ib
0/1
i
2,iw
1,5w
2,5w
1,1w
1b
0/1
1
2,1w
0w
0/1 BF iw
i
i
Рис. 1
Следует отметить, что для всех типов сетей во всех субпопуляциях исполь-
зуются общие эволюционные процедуры (инициализация популяции, оценка по-
пуляции, селекция, скрещивание, мутации), а различия заключаются лишь в спо-
собе кодирования структуры и параметров той или иной ИНС в виде хромосомы
(см. рис. 1) [20–22]. Схема работы такого эволюционного алгоритма настройки
ИНС приведена на рис. 2.
Международный научно-технический журнал
«Проблемы управления и информатики», 2016, № 5 67
Начало
g 0
Инициализация популяции
Оценка популяции
Критерий
останова?
Критерий
останова?
Селекция
Скрещивание
Мутации
g g 1
Да
Да
Нет
Нет
Использование структуры
и весовых параметров лучшей особи
Вычисление выходного сигнала
Вычисление ошибки идентификации
Конец
Настройка весовых параметров
с помощью градиентного алгоритма
Рис. 2
Многокритериальный метод обучения ИНС
на основе конкурентной коэволюции
Рассмотрим алгоритм обучения ИНС на основе конкурентной коэволюции [23].
В нем можно выделить следующие основные шаги.
1. Инициализация. Создается N популяций, состоящих из m особей (ИНС)
каждая. Каждая популяция },...,,{ 21 mi HHHP инициализируется случайным
образом. При этом каждая особь в популяции получает свое уникальное описание,
закодированное в хромосоме },...,,,{ 21 Ljjjj hhhH которая состоит из L генов,
где ][ maxminwwhij — значение i-го гена j-й хромосомы min(w — минимальное,
и maxw — максимальное допустимые значения соответственно). Следует отме-
тить, что длина хромосомы зависит от размерности аппроксимируемой функции и
максимально допустимого количества нейронов.
2. Первый шаг эволюции. Все N популяций обучаются на полном наборе
входных сигналов.
3. Ранжирование. Все N⋅m особей ранжируются (от 0 до N⋅m −1) в зависи-
мости от их фитнеса Fi, i = 0,…, N m −1, вычисленного во время обучения. Ран-
жирование популяций выполняется на основе фитнеса первых M особей после
индивидуального ранжирования при M ≥ m. M будет отличаться от m только тог-
да, когда Fm=Fm −1, в этом случае при ранжировании необходимо учесть все осо-
би, имеющие одинаковый фитнес Fm−1=Fm =…= FM −1.
4. Присвоение коэффициентов доверия. Каждой из M особей присваивает-
ся коэффициент, вычисляемый следующим образом: ,/)( MlM
i e i = 0,…, m −1.
Если k особей имеют одинаковый фитнес Fj, Fj+1,…, Fj +k−1 с 0 ≤ j, j + k − 1 ≤ M − 1,
им будет присвоен одинаковый коэффициент доверия:
.
1 1
0
/)(
k
l
MlMe
k
Каждой из N популяций присваивается коэффициент доверия, эквивалентный
сумме коэффициентов доверия, присвоенных ее особям. Следует отметить, что
68 ISSN 0572-2691
если популяция не имеет своих представителей среди M лучших особей, ей при-
сваивается коэффициент доверия, равный 0.
5. Проверка критерия исключения популяции. Если ранг популяции не
изменялся в течение предыдущих D эпох, то популяция исключается на шесть
шагов, в противном случае осуществляется переход к шагу 2. Для ускорения про-
цесса обучения D уменьшается на 1 каждые P итераций (параметры D и P задают-
ся на этапе инициализации алгоритма). Возможен также подход, при котором че-
рез каждые D шагов исключается популяция с наименьшим рейтингом независи-
мо от того, менялся он на последних итерациях или нет.
6. Исключение популяции. Если выполняется критерий исключения попу-
ляции, то геномы особей исключаемой популяции распределяются между остав-
шимися N −1 популяциями. После уменьшения N на единицу алгоритм продолжа-
ет работу с шага 2, если N > 1, до тех пор, пока не останется лишь одна популя-
ция, состоящая из N⋅m особей. Оставшаяся популяция обучается до выполнения
условия останова.
Особенности решения задачи
многокритериального обучения при использовании РБС
При многокритериальном обучении сети РБС происходит два основных про-
цесса, аналогичных обучению МП: нейроны (БФ) внутри субпопуляций конкури-
руют за право принимать участие в формировании результирующей нейронной
сети, и отобранные нейроны осуществляют стратегию сотрудничества при гене-
рации конечного решения.
Для оценки роли каждого нейрона (БФ) в кооперативно-конкурентной среде
требуется некоторый механизм их оценки. Для этого в работе [1] предлагается
определить следующие три параметра: вклад — ai, ошибку — ei и перекрытие — oi.
Вклад ai для i-й РБС i (i = 1... m) определяется с учетом ее веса wi и количе-
ства образцов обучающей выборки, находящихся внутри ее рецептивного поля,
определяемого радиусом σi. РБС с небольшим значением веса и небольшим коли-
чеством входных сигналов внутри этого рецептивного поля будет соответственно
вносить несущественный вклад в общий результат сети:
случае, противном в)/(
; если,
qw
qw
a
ii
ii
i
где q — среднее значение всех σi минус их стандартное отклонение.
Измерение параметра ошибки ei каждой БФ (нейрона) основано на подсчете
всех ошибок при обработке обучающих пар внутри ее рецептивного поля:
.
)(
1
2*
N
yy
e
N
j
jj
i
Здесь
*
jy и jy — соответственно желаемое и реальное значения выходного сигнала
сети; N — количество обучающих пар внутри рецептивного поля i-й БФ (нейрона).
Степень перекрытия i-й БФ i остальными БФ характеризуется парамет-
ром oi, вычисляемым следующим образом:
Международный научно-технический журнал
«Проблемы управления и информатики», 2016, № 5 69
;
1
M
j
iji oo
случае, противном в0
; если,1 iji
i
ji
ij
d
do
где ijo определяет степень перекрытия i-й БФ i с j-й .j
На рис. 3 показан пример перекрывающихся (а) и неперекрывающихся (б)
БФ (крестиками обозначены поступающие на сеть входные сигналы). Следует от-
метить, что стремление минимизировать степень перекрытия БФ может, с одной
стороны, приводить к повышению точности работы сети, но с другой — к увели-
чению количества нейронов скрытого слоя.
1
0
– 1
0
1
1
0
– 1
1
0
– 1
0
1
1
0
– 1
а б
Рис. 3
Многокритериальное обучение ИНС
с использованием алгоритмов кластеризации
Существует также несколько иной подход к многокритериальному обучению
ИНС. Он основан на разбиении пространства входных сигналов на кластеры на ос-
нове некоторого алгоритма кластеризации и многокритериальном обучении суб-
популяций ИНС в каждом полученном кластере. Особи-победители в каждой
субпопуляции избираются для формирования конечного решения.
Т. Кохонен предложил ряд алгоритмов решения задачи кластеризации,
наиболее эффективный из них — оптимальный алгоритм векторного квантования
OLVQ [24, 25].
Применение данного алгоритма позволяет разбить множество векторов х
размерности N 1 на конечное число классов M, M < N, каждому из которых при-
сваивается свой код (назначается опорный представитель) ).,1( Мiwi Множество
всех iw образует кодовое множество (кодовую книгу) классификатора.
Векторное квантование осуществляется по методу «ближайшего соседа»,
причем под «ближайшим» понимается вектор, удовлетворяющий различным тре-
бованиям. Если в качестве такового выбирается вектор, находящийся от данного
на минимальном евклидовом расстоянии, имеем классификатор, называемый в
литературе Voronoi-классификатор [26].
При предъявлении подлежащего распознаванию входного образа jx выдается
представитель iw того класса, к которому относится .jx Границы между клас-
сами образуют медиатриссы между опорными преставителями.
Моделирование
Эксперимент 1. Решалась задача аппроксимации нелинейной функции
«Сомбреро»
,
)(001,01
5,0sin
5,0),(
22
222
yx
yx
yxf
(3)
70 ISSN 0572-2691
где x, y — входные переменные, которые представляли собой стационарную
случайную последовательность с равномерным законом распределения в ин-
тервале [– 5, 5], генерируемую датчиком случайных чисел.
При решении данной задачи использовалась следующая стратегия коопера-
тивно-конкурирующей коэволюции. Было создано 20 популяций, каждая из кото-
рых содержала по 10 особей (РБС), максимально допустимое количество нейро-
нов в каждой сети было ограничено 25. Все популяции решали задачу аппрокси-
мации в полном объеме без взаимодействия между собой, конкурируя лишь за
вычислительные ресурсы и ресурсы памяти. Первые 100 эпох популяции эволю-
ционировали без внешнего вмешательства, затем в каждой из 25-ти эпох происхо-
дило удаление худшей популяции с наибольшим значением фитнес-функции.
Освободившиеся ресурсы перераспределялись между оставшимися популяциями
(увеличивалась их численность и количество мутировавших потомков). Кроме то-
го, лучшая особь из удаляемой популяции клонировалась во все оставшиеся по-
пуляции для поддержания их разнообразия и устранения риска потери полезной
информации, полученной в результате эволюции удаляемой популяции. Начиная
с 575-й эпохи эволюционировала лишь одна популяция, состоящая из 55 особей,
которая получила полный доступ ко всем имеющимся у алгоритма ресурсам. Пос-
ле достижения критерия останова (1000 эпох обучения) из хромосомы (генотип)
лучшей особи оставшейся популяции была образована РБС (фенотип), которая и
получила право решать задачу аппроксимации функции (3). Данная сеть содержа-
ла 19 нейронов (7 с гауссовской БФ и 12 с БФ «мексиканская шляпа»). На рис. 4, а
показана поверхность, описываемая уравнением (3), а на рис. 4, б — поверхность,
восстановленная с помощью эволюционной РБС. На рис. 5 приведены графики
изменения значения фитнесс-функций наилучших особей каждой из популяций.
5
0
– 5
0
5
1,5
0
– 5
5
0
– 5
0
5
1,5
0
– 5
а б
Рис. 4
1
0
5
10
500 1000
Рис. 5
Эксперимент 2. В данном эксперименте задача аппроксимации функции (3)
решалась с помощью иной кооперативно-конкурентной стратегии, заключающей-
ся в параллельной эволюции множества популяций, решающих различные подза-
дачи идентификации. Для этого пространство входных сигналов разбивалось на
кластеры с помощью дополнительной популяции, отвечающей за настройку цент-
Международный научно-технический журнал
«Проблемы управления и информатики», 2016, № 5 71
ров кластеров с помощью ЭА. Было задано 25 кластеров, начальные значения
центров которых задавались двумя способами: случайным распределением и рав-
номерным. Задачу аппроксимации в каждом кластере решала отдельная популя-
ция РБС. После 500 эпох обучения конечное решение было сформировано с по-
мощью особей-победителей в каждом кластере. Результаты аппроксимации функ-
ции (3) с различным подходом к выбору начальных значений центров кластеров
представлены на рис. 6, 7. На рис. 6 показаны графики изменения фитнес-функ-
ций сетей-победителей в каждой популяции для случайного и равномерного зада-
ния начальных значений центров кластеров соответственно. На рис. 7, а, б приве-
дены восстановленные поверхности, а на рис. 7, в, г — результирующее разбиение
пространства входных сигналов на кластеры. Как видно из результатов экспери-
ментов, для данного случая начальное равномерное распределение пространства
входных сигналов на кластеры дает лучшие результаты, однако в общем случае
рекомендуется все же использовать случайное разбиение, так как зачастую вид
аппроксимируемой функции неизвестен.
0
0
5
15
500 1000
10
0
0 250 500
1
2
а б
Рис. 6
5
0
– 5
0
5
1,5
– 0,5
– 5
5
0
– 5
1,5
– 0,5
– 5
5
0
а б
5
0
– 5
5
0 – 5
5
0
– 5
5
0 – 5
в г
Рис. 7
Эксперимент 3. В данном эксперименте проводилась аппроксимация функ-
ции Катковника при :]5,2;5,2[yx,
.))5,3(cos)5(cos8,0)(cos)5,1(cos8,06,1)((5,0),( 22 yxyxyxyxF (4)
72 ISSN 0572-2691
Все параметры эксперимента идентичны эксперименту 2. Отличие заключа-
ется в том, что в качестве ИНС вместо РБС использовался МП c двумя скрытыми
слоями, содержащими не более 20 нейронов с сигмоидальными функциями акти-
вации каждый. Результаты аппроксимации функции (4) приведены на рис. 8.
0
– 2,5
0
2,5
12
– 2
2,5
– 2,5
0
– 2,5
0
2,5
12
– 2
2,5
– 2,5
а б
2,5
0
– 2,5
2,5
0 – 2,5 2,5
0
– 2,5
2,5
0 – 2,5
в г
Рис. 8
Заключение
Как свидетельствуют результаты исследования, применение коэволюционно-
го подхода в сетях прямого распространения — достаточно эффективный ин-
струмент, позволяющий, во-первых, решать более сложные задачи, во-вторых,
получать более простые структуры ИНС за счет уменьшения количества нейро-
нов, в-третьих, значительно повышать робастность получаемой при этом сети по
сравнению с решениями, основанными на одиночной ИНС.
При использовании же векторного квантования для разбиения основной за-
дачи на подзадачи открытым остается вопрос о выборе количества кластеров и
начальных значений их центров. Наличие информации об аппроксимируемой
функции позволяет несколько упростить решение этой задачи.
О.Г. Руденко, О.О. Безсонов
НЕЙРОННІ МЕРЕЖІ ПРЯМОГО
РОЗПОВСЮДЖЕННЯ, ЩО КОЕВОЛЮЦІОНУЮТЬ
Запропоновано еволюційний алгоритм визначення архітектури нейронних ме-
реж прямого розповсюдження та їх навчання, заснований на коеволюційних
моделях кооперації і конкуренції з використанням алгоритмів кластеризації для
розбиття основної задачі синтезу нейронної мережі на підзавдання, які вирі-
шуються в окремих субпопуляціях. Запропонований алгоритм реалізує середо-
вище, що сприяє співробітництву та конкуренції популяцій, в яких кожна осо-
бина являє собою нейронну мережу прямого розповсюдження, а вся сукупність
популяцій несе відповідальність за остаточне вирішення поставленого завдан-
Международный научно-технический журнал
«Проблемы управления и информатики», 2016, № 5 73
ня. Результати імітаційного моделювання підтверджують ефективність запро-
понованого методу синтезу нейронних мереж прямого розповсюдження.
O.G. Rudenko, A.A. Bezsonov
COEVOLVING FEEDFORWARD
NEURAL NETWORKS
An evolutionary algorithm of determining the architecture of feedforward neural
networks and performing their training is proposed, based on the co-evolutionary
models of cooperation and competition with using of clustering algorithms for parti-
tioning the main problem of neural network synthesis into sub-tasks to be undertaken
in certain sub-populations. The proposed algorithm implements an environment that
is conducive to cooperation and competition of populations in which every individual
is a feedforward neural network, and the totality of the populations is responsible for
the final solution of the problem. The simulation results confirm the effectiveness of
the proposed method of feedforward neural networks synthesis.
1. Perez-Godoy M.D., Rivera A.J., Berlanga F.J., Del Jesus M.J. CO2RBFN: an evolutionary coop-
erative–competitive RBFN design algorithm for classification problems // Soft Computing. —
2010. — N 14. — P. 953–971.
2. Chen S, Billings S.A., Cowan C.F.N., Grant P.W. Practical identification of normax models using
radial basis functions // Int. J. Control. — 1990. — I, N 52(6). — P. 1327–1350.
3. Pedrycz W. Conditional fuzzy clustering in the design of radial basis function neural networks //
IEEE Trans. on Neural Networks. — 1998. — N 9(4). — P. 601–612.
4. Yao X. A review of evolutionary artificial neural networks // Int. J. Intell. Syst. — 1993. —
N 8(4). — P. 539–567.
5. Yao X. Evolving artificial neural networks // Proc. of the IEEE. — 1999. — 87, N 9. —
P. 1423–1447.
6. Зинченко Л.А., Сорокин С.Н. Коэволюция в методах вычислительного интеллекта // Двена-
дцатая национальная конференция по искусственному интеллекту с международным уча-
стием КИИ-2010 (20–24 сентября 2010 г., г. Тверь, Россия): Труды конференции. — М. :
Физматлит, 2010. — 4. — С. 97–104.
7. Smith R.E., Brown Cribbs III H. Cooperative versus competitive system elements in coevolution-
ary systems // Proc. of the Fourth International Conference on Simulation of Adaptive Behavior,
North Falmouth, MA (USA). — Cambridge, MA : MIT Press. — 1996. — P. 9–13.
8. Chand S., Chandra R. Cooperative coevolution of feedforward neural networks for financial time
series problem // Int. Joint Conf. on Neural Networks (IJCNN), Beijing, China. — 2014. —
P. 202–209.
9. Potter M.A., De Jong K.A. Cooperative coevolution: An architecture for evolving coadapted sub-
components // Evol. Comput. — 2000. — 8, N 1. — P. 1–29.
10. Chandra R., Frean M., Zhang M. On the issue of separability for problem decomposition in coop-
erative neuro-evolution // Neurocomputing. — 2012. — 87. — P. 33–40.
11. Gomez F., Schmidhuber J., Miikkulainen R. Accelerated neural evolution through cooperatively
coevolved synapses // J. Mach. Learn. Res. — 2008. — 9. — P. 937–965.
12. Chandra R., Frean M., Zhang M. An encoding scheme for cooperative coevolutionary feedfor-
ward neural networks // AI 2010: Advances in Artificial Intelligence, ser. Lecture Notes in Com-
puter Science. — Berlin, Heidelberg : Springer, 2010. — 6464. — P. 253–262.
13. Potter M.A., De Jong K.A. A cooperative coevolutionary approach to function optimization //
PPSN III: Proc. of the Int. Conf. on Evolutionary Computation. The Third Conf. on Parallel Prob-
lem Solving from Nature. London, UK : Springer-Verlag, 1994. — P. 249–257.
14. Deb K., Pratap A., Agarwal S., Meyarivan T. A fast and elitist multiobjective genetic algorithm:
Nsga-II // IEEE Trans. on Evolutionary Computation. — 2002. — 6. — P. 182–197.
15. Руденко О.Г., Бессонов А.А. Многокритериальная оптимизация эволюционирующих сетей
прямого распространения // Международный научно-технический журнал «Проблемы
управления и информатики». — 2014. — № 6. — С. 29–41.
16. Руденко О.Г., Бессонов А.А. Робастная многокритериальная идентификация нелинейных
объектов на основе эволюционирующих радиально-базисных сетей // Там же. — 2013. —
№ 5. — С. 22–32.
74 ISSN 0572-2691
17. Dorronsoro B., Danoy G., Nebro A., Bouvry B. Achieving superlinear performance in parallel
multi-objective evolutionary algorithms by means of cooperative coevolution // Computers and
Operations Research. — 2013. — 40. — P. 1552–1563.
18. Goh C.K., Tan K.C., Liu D.S., Chiam S.C. A competitive and cooperative co-evolutionary ap-
proach to multi-objective particle swarm optimization algorithm design // European J. of Opera-
tional Research. — 2010. — 202. — P. 42–54.
19. Tulai A.F., Oppacher F. Combining competitive and cooperative coevolution for training cascade
neural networks // Proc. of the Genetic and Evolutionary Computation Conf. — New York, 2002.
— P. 618–625.
20. Руденко О.Г., Бессонов А.А. Робастная нейроэволюционная идентификация нелинейных не-
стационарных объектов // Кибернетика и системный анализ. — 2014. — № 1. — С. 11–20.
21. Руденко О.Г., Бессонов А.А. Идентификация нелинейных нестационарных объектов с по-
мощью эволюционирующей радиально-базисной сети // Международный научно-техни-
ческий журнал «Проблемы управления и информатики». — 2012. — № 4. — С. 5–14.
22. Руденко О.Г., Бессонов А.А., Руденко С.О. Робастная идентификация нелинейных объектов
с помощью эволюционирующей радиально-базисной сети // Кибернетика и системный
анализ. — 2013. — № 2. — C. 15–26.
23. Chand S., Chandra R. Multi-objective cooperative coevolution of neural networks for time series pre-
diction // Int. Joint Conf. on Neural Networks (IJCNN), Beijing, China. — 2014. — P. 190–197.
24. Kohonen T. Associative memory: A system theoretic approach. — Berlin : Springer, 1977.
— 178 p.
25. Kohonen T., Kangas J., Laaksonen J., Torkkola K. LVQ-PAK: The learning vector quantization
program package. — Helsinki Univ. Techn., Finland, Tech. Rep. TR A30. — 1996. — 28 p.
26. Хайкин С. Нейронные сети: полный курс / Пер. с англ. — М. : Вильямс, 2006. — 1104 с.
Получено 25.01.2016
|