Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю
Розглядаються задачі нейроідентифікації і нейроуправління з еталонною моделлю для 
 нелінійного динамічного об'єкта. Аналізується проблема вибору нейроемулятора для навчання 
 нейроконтролера, пропонується новий критерій на основі аналізу керуючих локальних градієнтів 
...
Saved in:
| Published in: | Математичні машини і системи |
|---|---|
| Date: | 2012 |
| Main Author: | |
| Format: | Article |
| Language: | Ukrainian |
| Published: |
Інститут проблем математичних машин і систем НАН України
2012
|
| Subjects: | |
| Online Access: | https://nasplib.isofts.kiev.ua/handle/123456789/60004 |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| Journal Title: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Cite this: | Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю / А.М. Чернодуб // Мат. машини і системи. — 2012. — № 3. — С. 61-68. — Бібліогр.: 13 назв. — укр. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1860260501104099328 |
|---|---|
| author | Чернодуб, А.М. |
| author_facet | Чернодуб, А.М. |
| citation_txt | Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю / А.М. Чернодуб // Мат. машини і системи. — 2012. — № 3. — С. 61-68. — Бібліогр.: 13 назв. — укр. |
| collection | DSpace DC |
| container_title | Математичні машини і системи |
| description | Розглядаються задачі нейроідентифікації і нейроуправління з еталонною моделлю для 
нелінійного динамічного об'єкта. Аналізується проблема вибору нейроемулятора для навчання 
нейроконтролера, пропонується новий критерій на основі аналізу керуючих локальних градієнтів 
для вхідних нейронів нейроемулятора. Наводяться результати чисельних експериментів щодо навчання нейроконтролерів методами градієнтного спуска і розширеного фільтра Калмана.
Рассматриваются задачи нейроидентификации и нейроуправления с эталонной моделью для нелинейного динамического объекта. Анализируется проблема выбора нейроэмулятора 
для обучения нейроконтроллера, предлагается новый критерий на основе анализа управляющих 
локальных градиентов для входных нейронов нейроэмулятора. Приводятся результаты множественных численных экспериментов по обучению нейроконтроллеров методами градиентного спуска 
и расширенного фильтра Калмана.
Neuroidentification and neurocontrol with the reference model problems for nonlinear dynamic 
object are considered. A problem of proper neuroemulator choosing for neurocontroller training is anayzed. A new criterion on the basis of local control gradients analysis for input neuroemulator's neurons is 
proposed. Results of numerical simulations of neurocontroller training by a gradient descent method and 
for an Extended Kalman Filter method are given.
|
| first_indexed | 2025-12-07T18:54:37Z |
| format | Article |
| fulltext |
© Чернодуб А.М., 2012 61
ISSN 1028-9763. Математичні машини і системи, 2012, № 3
УДК 681.513.7
А.М. ЧЕРНОДУБ
ВИБІР НЕЙРОЕМУЛЯТОРА НА ОСНОВІ МЕТОДУ КЕРУЮЧИХ ЛОКАЛЬНИХ
ГРАДІЄНТІВ У МЕТОДІ НЕЙРОУПРАВЛІННЯ З ЕТАЛОННОЮ МОДЕЛЛЮ
Анотація. Розглядаються задачі нейроідентифікації і нейроуправління з еталонною моделлю для
нелінійного динамічного об'єкта. Аналізується проблема вибору нейроемулятора для навчання
нейроконтролера, пропонується новий критерій на основі аналізу керуючих локальних градієнтів
для вхідних нейронів нейроемулятора. Наводяться результати чисельних експериментів щодо на-
вчання нейроконтролерів методами градієнтного спуска і розширеного фільтра Калмана.
Ключові слова: нейроуправління, нейроемулятор, рекурентна нейронна мережа, розширений
фільтр Калмана.
Аннотация. Рассматриваются задачи нейроидентификации и нейроуправления с эталонной мо-
делью для нелинейного динамического объекта. Анализируется проблема выбора нейроэмулятора
для обучения нейроконтроллера, предлагается новый критерий на основе анализа управляющих
локальных градиентов для входных нейронов нейроэмулятора. Приводятся результаты множест-
венных численных экспериментов по обучению нейроконтроллеров методами градиентного спуска
и расширенного фильтра Калмана.
Ключевые слова: нейроуправление, нейроэмулятор, рекуррентная нейронная сеть, расширенный
фильтр Калмана.
Abstract. Neuroidentification and neurocontrol with the reference model problems for nonlinear dynamic
object are considered. A problem of proper neuroemulator choosing for neurocontroller training is ana-
lyzed. A new criterion on the basis of local control gradients analysis for input neuroemulator's neurons is
proposed. Results of numerical simulations of neurocontroller training by a gradient descent method and
for an Extended Kalman Filter method are given.
Keywords: neurocontrol, neuroemulator, Recurrent Neural Network, Extended Kalman Filter.
1. Вступ
Нейроуправління є різновидом адаптивного керування, коли як будівельні блоки систем
керування використовуються штучні нейронні мережі. Нейронні мережі мають ряд уніка-
льних властивостей, які роблять їх потужним інструментом для створення систем керуван-
ня: здатність до навчання на прикладах і до узагальнення даних, здатність адаптуватися до
зміни властивостей об'єкта керування і зовнішнього середовища, придатність для синтезу
нелінійних регуляторів. За останні 20 років було розроблено велику кількість методів ней-
роуправління, найпопулярнішими на даний момент серед яких є методи нейроуправління з
еталонною моделлю [1] (Model Reference Adaptive Neurocontrol) і системи адаптивної кри-
тики [2] (Adaptive Critics).
Метод нейроуправління з еталонною моделлю, також відомий як «схема з нейрое-
мулятором і нейроконтролером» або «зворотне поширення в часі», був запропонований на
початку 1990-х [1], [3, С. 168], [4–6], [7, C. 978], [8, С. 861]. Цей метод не вимагає знання
математичної моделі об'єкта керування. Замість цього прямій динаміці об'єкта керування
навчається окрема нейронна мережа, нейроемулятор, далі вона використовується для об-
числення похідних при навчанні нейроконтролера.
При цьому з множини навчених нейроемуляторів зазвичай обирають той, що забез-
печив найменшу середньоквадратичну помилку моделювання об'єкта керування. Однак, чи
є такий критерій кращим, якщо нейромережа використовується з метою подальшого на-
вчання іншої нейромережі, послідовно підключеної до першої, а не власне для моделю-
вання об'єкта керування?
62 ISSN 1028-9763. Математичні машини і системи, 2012, № 3
У статті пропонується новий критерій відбору нейроемуляторів, який дозволяє в се-
редньому більш ефективно навчати нейроконтролери в методі нейроуправління з еталон-
ною моделлю та приводяться результати чисельних експериментів на типовій завдачі ке-
рування динамічним об'єктом.
2. Метод нейроуправління з еталонною моделлю
Нехай задано динамічний об'єкт керування, поведінка якого визначається дискретними
формулами (1–2):
)),(),(()1( kukSkS Φ=+ (1)
)),(()1( kSky Ψ=+ (2)
де )(ku – вхідний сигнал, )1( +ky – вихідний сигнал на такті k . Формули (1–2) вважають-
ся апріорі невідомими. Незважаючи на те, що стан динамічного об'єкта )(kS є недоступ-
ним для зовнішнього спостереження, його можливо оцінити різними способами. Для оцін-
ки стану )(kS ми використовуємо модель NARX:
.])(...)()(...)([)( TNkykyLkukukS −−= (3)
Мета керування формулюється таким чином: нехай на такті k об'єкт керування пе-
ребуває в положенні )(ky і задана уставка )1( +kr , яка є бажаним положенням об'єкта ке-
рування на наступному такті. Контролеру необхідно згенерувати такий сигнал керування
)(ku , щоб зробити відмінність між уставкою )1( +kr та положенням )1( +ky мінімальним.
У методі нейроуправління з еталонною моделлю уставка )1( +kr додатково згладжується
еталонною моделлю, в ролі якої використовується, як правило, стабільна лінійна динаміч-
на система невеликого порядку. Таким чином, замкнений нейроконтролером об'єкт керу-
вання мусить мати таку ж поведінку, як і еталонна модель.
При стандартному використанні нейронних мереж для вирішення задач розпізна-
вання зазвичай існують 2 етапи функціонування:
1) етап навчання нейронної мережі на прикладах даних;
2) етап використання навченої мережі для розпізнавання.
Метод нейроуправління з еталонною моделлю (рис. 1) передбачає 3 етапи:
1) етап навчання в режимі
офф-лайн першої нейронної мережі,
нейроемулятора, моделюванню
об'єкта керування;
2) етап навчання в режимі
он-лайн другої нейронної мережі,
нейроконтролера, керуванню об'єк-
том керування;
3) етап використання навче-
ного нейроконтролера для керуван-
ня об'єктом (нейроемулятор на цьо-
му фінальному етапі не використо-
вується).
3. Навчання нейроемуляторів
Нейроемулятор являє собою нейронну мережу, навчену прямій динаміці об'єкта керуван-
ня. У статті використано багатошаровий персептрон як нейронну мережу. Навчання ней-
Рис. 1. Структурна схема методу нейроуправління
з еталонною моделлю
ISSN 1028-9763. Математичні машини і системи, 2012, № 3 63
роемулятора виконується згідно зі схемою «навчання з учителем». Нейромережа отримує
на вхід )(kx стан )(kS об'єкта керування. Таким чином, нейроконтролер являє собою не-
рекурентну мережу, його «динамізація» відбувається за рахунок використання динамічних
входів (3).
Розрахунок вихідного значення мережі )1(~ +ky виконується за формулою
),)(()1(~ )1()2(
∑ ∑=+
j i
ijij xwfwgky (4)
де )1(w – вагові коефіціенти нейронів прихованого шару, )(⋅f – активаційні функції нейро-
нів прихованого шару, )2(w – вагові коефіціенти нейронів вихідного шару, )(⋅g – актива-
ційні функції нейронів вихідного шару. У наших експериментах були використані персеп-
трони з одним прихованим шаром і тангенціальними активаційними функціями у прихо-
ваному і вихідному шарах. На рис. 2 показано нейроемулятор з чотирма нейронами у при-
хованому шарі, який отримує на вхід стан з параметрами 0=L і 1=N .
Подібним чином сконструйовані нейрое-
мулятори можуть навчатися різними градіентни-
ми оптимізаційними методами з обчисленням
похідних за методом зворотного поширення по-
милки (Backpropagation, BP). При цьому розмір
обраного часового вікна, заданого параметрами
L і N , має бути встановленим приблизно рівним
порядку модельованого динамічного процесу,
інакше алгоритму навчання буде неможливо
знайти кореляцію між входом нейромережі і ці-
льовим виходом.
4. Навчання нейроконтролерів
У нашій роботі нейроконтролери являють собою багатошарові персептрони з одним при-
хованим шаром, однак для них неможливе навчання з учителем, оскільки цільові значення
керуючих сигналів )(ku невідомі. Для корекції ваг нейроконтролера використовується ме-
тод зворотного поширення помилки через попередньо навчений нейроемулятор.
Навчання нейроконтролера виконується в режимі он-лайн, паралельно з керуванням
об'єктом. На такті k нейроконтролер отримує на вхід значення уставки )1( +kr та вектор
стану )(kS :
TCO kSkrkx ])()1([)( += (5)
і генерує керуючий сигнал )(ku (рис. 1). Сигнал )(ku надходить до об'єкта керування й
переводить його в положення )1( +ky і одночасно на нейроемулятор, який генерує реак-
цію )1(~ +ky . Якщо нейроемулятор є добре навченим, то ε<+−+ )1(~)1( kyky , у наших
експериментах 310−≈ε . Також значення уставки )1( +kr надходить на еталонну модель,
яка генерує цільове значення для навчання нейроконтролера )1( +krm . У ролі еталонної
моделі використовується стабільна лінійна динамічна система першого порядку з передат-
ною функцією
1
1
)(
+
=
as
sT , значення параметра 0>a змінюються, а також просто дублю-
ється значення уставки )1( +kr (цей випадок в описі експериментів зазначено як 0=a ). На
Рис. 2. Багатошаровий персептрон для
моделювання динамічного процесу
64 ISSN 1028-9763. Математичні машини і системи, 2012, № 3
підставі вихідного значення еталонної моделі )1( +krm і нового положення об'єкта керу-
вання )1( +ky формується поточна помилка керування )(ke :
).1()1()( +−+= kykrmke (6)
Далі відбувається етап корекції ваг нейроконтролера залежно від обраного алгоритму оп-
тимізації. Нами використано дві версії методу нейроуправління з еталонною моделлю: з
методом градієнтного спуска [1, 3] і з методом розширеного фільтра Калмана [4–5].
Метод градієнтного спуска. При використанні цього алгоритму помилка керування
)(ke (6) пропускається через нейроемулятор у зворотному напрямку за методом зворотно-
го поширення помилки, при цьому корекція ваг нейроемулятора не виконується. Для вхід-
них нейронів нейроемулятора розраховується вектор локальних градієнтів INδ :
,]...[ 21 ++= LN
IN δδδ (7)
з компонентів якого вибирається локальний градієнт uδ , відповідний до нейрона нейрое-
мулятора, на який надходить керування )(ku . Назвемо цей локальний градієнт uδ керую-
чим локальним градієнтом. При використанні вхідного вектора (5) 2δδ =u . Керуючий ло-
кальний градієнт uδ пропускається далі через нейроконтролер за методом зворотного по-
ширення помилки. Він використовується при розрахуванні локальних градієнтів прихова-
ного і вхідного шарів нейроконтролера, а також похідної помилки по вагових коефіцієнтах
прихованого й вихідного шарів нейроконтролера:
)1(w
E
∂
∂
і )2(w
E
∂
∂
. Далі проводиться корекція
ваг за методом градієнтного спуска: )()()1( kwkwkw ∆+=+ α , де α – швидкість навчання,
)(
)(
)(
kw
kE
kw
∂
∂=∆ .
Метод розширеного фільтра Калмана. Для корекції ваг нейроконтролера за методом
розширеного фільтра Калмана на кожному такті k також використовується механізм зво-
ротного поширення помилки через нейроемулятор, але тепер пропускається не поточне
значення помилки )(ke (6), а значення 1, що при тих же обчисленнях забезпечує отриман-
ня векторів якобіанів
)1(
~
w
y
∂
∂
і
)2(
~
w
y
∂
∂
замість векторів градієнтів )1(w
E
∂
∂
і )2(w
E
∂
∂
, оскільки
w
y
ke
w
E
∂
∂=
∂
∂ ~
)( . Ці якобіани на кожному такті формують матрицю спостережень фільтра Ка-
лмана )(kH розміром K×1 , K – сумарна кількість елементів матриць )1(w і )2(w .
На початку роботи алгоритму навчання задається кореляційна матриця P розміром
KK × . На першому такті вона встановлюється рівній одиничній матриці: IP =)1( . Ми не
розбиваємо матрицю P на кілька окремих матриць, як це робиться в методі незв'язного
розширеного фільтра Калмана (DEKF) [4], [7, С. 960], [8, C. 855], оскільки подібне розбит-
тя виконується винятково з метою економії обчислювальних ресурсів. Задається матриця
швидкості навчання
η
1=R , в нашому прикладі 001,0=η , і матриця шуму процесу Q , у
нас IQ 410−= . На такті k , після знаходження помилки керування )(ke і заповнення мат-
риці )(kH описаним вище способом, проводяться розрахунки нових значень вагових кое-
фіцієнтів нейроконтролера )1( +kw і матриці кореляції )1( +kP :
,])()()([)()()( 1−+= RkHkPkHkHkPkK TT (8)
ISSN 1028-9763. Математичні машини і системи, 2012, № 3 65
,)()()()()1( QkPkHkKkPkP +−=+ (9)
).()()()1( kekKkwkw +=+ (10)
Зазначимо, що градієнти
w
E
∂
∂
і якобіани
w
y
∂
∂~
для навчання нейроконтролера обчис-
люються звичайним методом зворотного поширення помилки (Backpropagation), а не ме-
тодом усіченого зворотного поширення помилки в часі (BPTT(h)) [7, C. 942], [8, C. 836],
[9] або рекурентного навчання в реальному часі (RTRL) [7, С. 949], [8, C. 840], [9-10]. Не
дивлячись на те, що замкнена динамічна система має рекурентні зв'язки, використання
статичних похідних є коректним, оскільки, по-перше, використані нами мережі не мають
внутрішніх рекурентних зв'язків, а по-друге, тому, що при зворотному поширенні градієн-
та через послідовно з'єднаний нейроконтролер і нейроемулятор має місце ефект зникнення
градієнта, що робить зазначені динамічні похідні чисельно дуже близькими до використо-
вуваних нами статичних похідних вже при глибині усікання 1=h .
5. Параметр Θ для нейроемуляторів
У ході експериментів по навчанню нейроконтролерів виявлено, що деякі добре навчені
нейроемулятори з помилкою порядка 610− не завжди забезпечують якісне навчання нейро-
контролерів. При навчанні методом фільтра Калмана частина нейроконтролерів взагалі не
навчилася.
При аналізі локальних градієнтів вхідних нейронів нейроемуляторів INδ (7), які ро-
зраховуються під час навчання нейроконтролерів, виявлено, що в таких неуспішних ней-
роемуляторах абсолютні значення керуючих локальних градієнтів uδ відносно малі в порі-
внянні з модулями інших локальних градієнтів векторів INδ . При цьому точність нейрое-
муляторів у сенсі середньоквадратичної помилки приблизно рівна. Це можна пояснити в
такий спосіб. Представимо, що послідовно з'єднані нейроемулятор і нейроконтролер є
єдина нейронна мережа, в якій перші два шари ваг відповідають нейроконтролеру, а другі
два шари – нейроемулятору. При навчанні нейроконтролера локальні градієнти пропуска-
ються через ваги нейроемулятора і попадають на нейроконтролер через вхідний нейрон
нейроемулятора, відповідний до вихідного нейрона нейроконтролера. Це означає, що при
цьому використовується тільки керуючий локальний градієнт uδ із усього вектора INδ ,
для інших локальних градієнтів зворотне поширення закінчується на даному етапі і вони
не впливають на корекцію ваг нейроконтролера.
Для оцінки відносної величини модулів локальних керуючих градієнтів uδ ми вво-
димо параметр θ :
,
)(
)()()(1
1
2
2
2
2
2
2
1∑
=
+++++=
n
k u
LN
k
kkk
n δ
δδδθ K
(11)
де n – кількість елементів навчальної виборки. Локальні градієнти
},...,2,1{),(),...,( 21 nkkk LN =++δδ обчислюються методом зворотного поширення помилки,
який застосовується на навчальній виборці після навчання нейроемулятора, для пропуску
через нейроемулятор завжди використовується величина 1.
6. Результати навчання нейроемуляторів
У нашій роботі для чисельних експериментів по ідентифікації і керуванню використано
нелінійний динамічний об'єкт другого порядку з [11], який, у свою чергу, є незначно мо-
дифікованою версією об'єкта керування з [1]. Об'єкт керування задано формулою
66 ISSN 1028-9763. Математичні машини і системи, 2012, № 3
Таблиця 1. Характеристики навчених нейроемуляторів
MSE,
мін.
MSE,
середнє
θ ,
мін.
θ ,
середнє
Нейроемулятори A 61022,7 −×
61017,9 −× 32,2 73,18
Нейроемулятори Б 61048,8 −× 61032,9 −× 00,2 23,11
,
)2()1(1
)(]1)2()[1()2()1()(
)1(
22 −+−+
+−−−−−=+
kyky
kukykukykyky
ky (12)
де )(ku – вхідний сигнал, )1( +ky – вихідний сигнал на такті k .
Навчання нейроемуляторів проводилося в середовищі MATLAB без використання
пакета Neural Networks Toolbox. На об'єкт подавався ідентифікаційний сигнал
)300/2sin()( kku π= і проводилося протоколювання виходів )(ky . На основі записаних да-
них були сформовані навчальна і тестова вибірки прикладів динаміки в кількості 1000 і
200 прикладів відповідно. На них були навчені нейроемулятори методом навчання з учи-
телем. Як алгоритм навчання був використаний метод глобального розширеного фільтра
Калмана (Global Extended Kalman Filter, GEKF) [7, С. 955], [8, С. 854], [10]. Для обчислення
якобіанів нейромереж
w
y
∂
∂~
, які необхідно мати для роботи алгоритму GEKF, використову-
вався метод зворотного поширення помилки. Для всіх шарів нейромереж були використані
тангенціальні активаційні функції, кількість нейронів у прихованому шарі варіювалася від
3 до 7.
Усього було на-
вчено 2 множини по 250
нейроемуляторів: ней-
роемулятори A, куди
потрапили нейроемуля-
тори, для яких значення
MSE менше 5101 −× , та
нейроемулятори Б, які
містять нейроемулятори, для яких MSE менше 5101 −× і, додаткова умова, 20<θ (табл. 1).
Для оцінки якості нейроемуляторів використовувалася стандартна формула середньоквад-
ратичної помилки: >−=< 2)~( kk tyMSE , де ky~ – вихід нейромережі, kt – цільове значення.
7. Результати навчання нейроконтролерів
Після навчання нейроемуляторів було прове-
дено навчання нейроконтролерів, для чого
нейромережі і алгоритми їх навчання були
змодельовані в середовищі Simulink, без ви-
користання пакета Neural Network Blockset.
Кожний експеримент по навчанню нейрокон-
тролерів тривав 100 250 тактів, з яких упро-
довж 100 000 тактів на нейроконтролер пода-
вався випадковий процес і виконувалося їх
навчання методами градієнтного спуска або
розширеного фільтра Калмана (навчальна ді-
лянка); далі протягом 250 тактів, що залиши-
лися, ваги нейроконтролерів не коректували-
ся, на них подавалася тестова уставка, як по-
казано на рис. 3 (тестова ділянка), і фіксува-
лося середньоквадратичне відхилення MSE
траєкторії проходження об'єкта керування від траєкторії еталонної моделі на цій ділянці.
Рис. 3. Приклад траєкторії руху об’єкта
керування з навченим нейроконтролером на
тестовій ділянці, а=0,001, помилка
керування MSE=0,0019
ISSN 1028-9763. Математичні машини і системи, 2012, № 3 67
Для кожного з нейро-
емуляторів з множин
А і Б було навчено по
4 нейроконтролери з
різними параметрами
a еталонної моделі,
результати наведено в
табл. 2–3. При приб-
лизно рівній якості
навчання нейроемуля-
торів (табл. 1) викори-
стання запропонова-
ного критерію відбору
нейроемуляторів, які
склали множину ней-
роемуляторів Б, забез-
печило підвищення
якості навчання ней-
роконтролерів у сере-
дньому на 25–30% для
навчання методом
градієнтного спуска і
приблизно на порядок
– для навчання мето-
дом розширеного фі-
льтра Калмана.
8. Висновки
В роботі запропоновано новий критерій відбору нейроемуляторів для навчання нейроконт-
ролерів у методі нейроуправління з еталонною моделлю. Було проведено експерименталь-
не дослідження пропонованого критерію з навчанням 500 нейроемуляторів і 4000 нейро-
контролерів, що показало його ефективність у порівнянні з традиційним способом відбору
нейроемуляторів за методом найменшої середньоквадратичної помилки на тестовій вибор-
ці даних.
У рамках подальших досліджень планується випробувати даний критерій разом з іншими
методами нейроуправління, в яких передбачено етап попередньої нейроідентифікації об'є-
кта керування: прогнозуючого модельного нейроуправління [6], [12] і гібридного нейро-
ПІД керування [3, C. 159], [6], а також з використанням кубатурного фільтра Калмана [8,
C. 787], [13].
СПИСОК ЛІТЕРАТУРИ
1. Narendra K.S. Identification and control of dynamical systems using neural networks / K.S. Narendra,
K.K. Parthasarathy // IEEE Transactions on Neural Networks. – 1990. – N 1. – P. 4 – 27.
2. Prokhorov D. Adaptive Critic Designs / D. Prokhorov, D. Wunsch // IEEE Transactions on Neural
Networks. – 1997. – Vol. 8, N 5. – P. 997 – 1007.
3. Омату С. Нейроуправление и его приложения / Омату С., Халид М., Юсоф Р.; пер. с англ. – М.:
ИПРЖР, 2000. – 272 с.
Таблиця 2. Помилки керування навчених нейроконтролерів,
навчання методом градієнтного спуска
0a = 0,001a =
0,002a =
0,005a =
Нейроемулятори А,
MSE, мін.
0,0072
0,0060 0,0066 0,0107
Нейроемулятори Б,
θ < 20, MSE, мін.
0,0074
0,0059 0,0064 0,0106
Нейроемулятори А,
MSE, середнє
0,0117
0,0101 0,0102 0,0135
Нейроемулятори Б,
θ < 20, MSE, середнє
0,0088
0,0072 0,0075 0,0112
Таблиця 3. Помилки керування навчених нейроконтролерів,
навчання методом розширеного фільтра Калмана
0a = 0,001a =
0,002a =
0,005a =
Нейроемулятори А,
MSE, мін.
0,0013
0,0019 0,0018 0,0017
Нейроемулятори Б,
θ < 20, MSE, мін.
0,0013
0,0019 0,0018 0,0017
Нейроемулятори А,
MSE, середнє
0,0396
0,0420 0,0419 0,0539
Нейроемулятори Б,
θ < 20, MSE, середнє
0,0030
0,0045 0,0054 0,0351
68 ISSN 1028-9763. Математичні машини і системи, 2012, № 3
4. Feldkamp L.A. Training controllers for robustness: multi-stream DEKF / L.A. Feldkamp, G.V. Pusko-
rius // Proc. of International Conference on Neural Networks, (Orlando, FL, USA, 27 Jun – 2 Jul 1994). –
1994. – Vol. 4. – P. 2377 – 2382.
5. Prokhorov D.V. Toyota Prius HEV Neurocontrol and Diagnostics / D.V. Prokhorov // Neural Networks.
– 2008. – N 21. – P. 458 – 465.
6. Чернодуб А.Н. Обзор методов нейроуправления / А.Н. Чернодуб, Д.А. Дзюба // Проблемы про-
граммирования. – 2011. – № 2. – С. 79 – 94.
7. Хайкин C. Нейронные сети: полный курс / Хайкин C.; пер. с англ. – [2-е изд., испр.]. – М.: Виль-
ямс, 2006. – 1104 c.
8. Haykin S. Neural Networks and Learning Machines, Third Edition / Haykin S. – New York: Prentice
Hall, 2009. – 936 p.
9. De Jesus O. Backpropagation: Algorithms for a Broad Class of Dynamic Networks / O. De Jesus,
M.T. Hagan // IEEE Transactions on Neural Networks. – 2007. – Vol. 18, N 1. – P. 14 – 27.
10. Cernansky M. Simple recurrent network trained by RTRL and extended Kalman filter algorithms /
M. Cernansky, L. Benuskova // Neural Network World. – 2003. – Vol. 3, N 13. – P. 223 – 234.
11. Venelinov Topalov A. Online learning in adaptive neurocontrol schemes with a sliding mode algo-
rithm / A. Venelinov Topalov, O. Kaynak // IEEE Transactions on Systems, Man and Cybernetics. Part B:
Cybernetics. – 2001. – Vol. 31, Is. 3. – P. 445 – 450.
12. Hagan M.T. Neural networks for control / M.T. Hagan, H.B. Demuth // Proc. of the American Control
Conference. – San Diego, USA, 1999. – Vol. 3. – P. 1642 – 1656.
13. Arasaratnam I. Cubature Kalman Filters / I. Arasaratnam, S. Haykin // IEEE Transactions on Automat-
ic Control. – 2009. – Vol. 54, Is. 6. – P. 1254 – 1269.
Стаття надійшла до редакції 29.03.2012
|
| id | nasplib_isofts_kiev_ua-123456789-60004 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | 1028-9763 |
| language | Ukrainian |
| last_indexed | 2025-12-07T18:54:37Z |
| publishDate | 2012 |
| publisher | Інститут проблем математичних машин і систем НАН України |
| record_format | dspace |
| spelling | Чернодуб, А.М. 2014-04-11T08:30:48Z 2014-04-11T08:30:48Z 2012 Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю / А.М. Чернодуб // Мат. машини і системи. — 2012. — № 3. — С. 61-68. — Бібліогр.: 13 назв. — укр. 1028-9763 https://nasplib.isofts.kiev.ua/handle/123456789/60004 681.513.7 Розглядаються задачі нейроідентифікації і нейроуправління з еталонною моделлю для 
 нелінійного динамічного об'єкта. Аналізується проблема вибору нейроемулятора для навчання 
 нейроконтролера, пропонується новий критерій на основі аналізу керуючих локальних градієнтів 
 для вхідних нейронів нейроемулятора. Наводяться результати чисельних експериментів щодо навчання нейроконтролерів методами градієнтного спуска і розширеного фільтра Калмана. Рассматриваются задачи нейроидентификации и нейроуправления с эталонной моделью для нелинейного динамического объекта. Анализируется проблема выбора нейроэмулятора 
 для обучения нейроконтроллера, предлагается новый критерий на основе анализа управляющих 
 локальных градиентов для входных нейронов нейроэмулятора. Приводятся результаты множественных численных экспериментов по обучению нейроконтроллеров методами градиентного спуска 
 и расширенного фильтра Калмана. Neuroidentification and neurocontrol with the reference model problems for nonlinear dynamic 
 object are considered. A problem of proper neuroemulator choosing for neurocontroller training is anayzed. A new criterion on the basis of local control gradients analysis for input neuroemulator's neurons is 
 proposed. Results of numerical simulations of neurocontroller training by a gradient descent method and 
 for an Extended Kalman Filter method are given. uk Інститут проблем математичних машин і систем НАН України Математичні машини і системи Обчислювальні системи Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю Выбор нейроэмулятор на основе метода управляющих локальных градиентов в методе нейроуправлиння с эталонной моделью Neuroemulator choosing on the base of local control gradients for Model Reference Adaptive Neurocontrol Article published earlier |
| spellingShingle | Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю Чернодуб, А.М. Обчислювальні системи |
| title | Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю |
| title_alt | Выбор нейроэмулятор на основе метода управляющих локальных градиентов в методе нейроуправлиння с эталонной моделью Neuroemulator choosing on the base of local control gradients for Model Reference Adaptive Neurocontrol |
| title_full | Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю |
| title_fullStr | Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю |
| title_full_unstemmed | Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю |
| title_short | Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю |
| title_sort | вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю |
| topic | Обчислювальні системи |
| topic_facet | Обчислювальні системи |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/60004 |
| work_keys_str_mv | AT černodubam vibírneiroemulâtoranaosnovímetodukeruûčihlokalʹnihgradíêntívumetodíneiroupravlínnâzetalonnoûmodellû AT černodubam vyborneiroémulâtornaosnovemetodaupravlâûŝihlokalʹnyhgradientovvmetodeneiroupravlinnâsétalonnoimodelʹû AT černodubam neuroemulatorchoosingonthebaseoflocalcontrolgradientsformodelreferenceadaptiveneurocontrol |