Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю

Розглядаються задачі нейроідентифікації і нейроуправління з еталонною моделлю для 
 нелінійного динамічного об'єкта. Аналізується проблема вибору нейроемулятора для навчання 
 нейроконтролера, пропонується новий критерій на основі аналізу керуючих локальних градієнтів 
...

Full description

Saved in:
Bibliographic Details
Published in:Математичні машини і системи
Date:2012
Main Author: Чернодуб, А.М.
Format: Article
Language:Ukrainian
Published: Інститут проблем математичних машин і систем НАН України 2012
Subjects:
Online Access:https://nasplib.isofts.kiev.ua/handle/123456789/60004
Tags: Add Tag
No Tags, Be the first to tag this record!
Journal Title:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Cite this:Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю / А.М. Чернодуб // Мат. машини і системи. — 2012. — № 3. — С. 61-68. — Бібліогр.: 13 назв. — укр.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1860260501104099328
author Чернодуб, А.М.
author_facet Чернодуб, А.М.
citation_txt Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю / А.М. Чернодуб // Мат. машини і системи. — 2012. — № 3. — С. 61-68. — Бібліогр.: 13 назв. — укр.
collection DSpace DC
container_title Математичні машини і системи
description Розглядаються задачі нейроідентифікації і нейроуправління з еталонною моделлю для 
 нелінійного динамічного об'єкта. Аналізується проблема вибору нейроемулятора для навчання 
 нейроконтролера, пропонується новий критерій на основі аналізу керуючих локальних градієнтів 
 для вхідних нейронів нейроемулятора. Наводяться результати чисельних експериментів щодо навчання нейроконтролерів методами градієнтного спуска і розширеного фільтра Калмана. Рассматриваются задачи нейроидентификации и нейроуправления с эталонной моделью для нелинейного динамического объекта. Анализируется проблема выбора нейроэмулятора 
 для обучения нейроконтроллера, предлагается новый критерий на основе анализа управляющих 
 локальных градиентов для входных нейронов нейроэмулятора. Приводятся результаты множественных численных экспериментов по обучению нейроконтроллеров методами градиентного спуска 
 и расширенного фильтра Калмана. Neuroidentification and neurocontrol with the reference model problems for nonlinear dynamic 
 object are considered. A problem of proper neuroemulator choosing for neurocontroller training is anayzed. A new criterion on the basis of local control gradients analysis for input neuroemulator's neurons is 
 proposed. Results of numerical simulations of neurocontroller training by a gradient descent method and 
 for an Extended Kalman Filter method are given.
first_indexed 2025-12-07T18:54:37Z
format Article
fulltext © Чернодуб А.М., 2012 61 ISSN 1028-9763. Математичні машини і системи, 2012, № 3 УДК 681.513.7 А.М. ЧЕРНОДУБ ВИБІР НЕЙРОЕМУЛЯТОРА НА ОСНОВІ МЕТОДУ КЕРУЮЧИХ ЛОКАЛЬНИХ ГРАДІЄНТІВ У МЕТОДІ НЕЙРОУПРАВЛІННЯ З ЕТАЛОННОЮ МОДЕЛЛЮ Анотація. Розглядаються задачі нейроідентифікації і нейроуправління з еталонною моделлю для нелінійного динамічного об'єкта. Аналізується проблема вибору нейроемулятора для навчання нейроконтролера, пропонується новий критерій на основі аналізу керуючих локальних градієнтів для вхідних нейронів нейроемулятора. Наводяться результати чисельних експериментів щодо на- вчання нейроконтролерів методами градієнтного спуска і розширеного фільтра Калмана. Ключові слова: нейроуправління, нейроемулятор, рекурентна нейронна мережа, розширений фільтр Калмана. Аннотация. Рассматриваются задачи нейроидентификации и нейроуправления с эталонной мо- делью для нелинейного динамического объекта. Анализируется проблема выбора нейроэмулятора для обучения нейроконтроллера, предлагается новый критерий на основе анализа управляющих локальных градиентов для входных нейронов нейроэмулятора. Приводятся результаты множест- венных численных экспериментов по обучению нейроконтроллеров методами градиентного спуска и расширенного фильтра Калмана. Ключевые слова: нейроуправление, нейроэмулятор, рекуррентная нейронная сеть, расширенный фильтр Калмана. Abstract. Neuroidentification and neurocontrol with the reference model problems for nonlinear dynamic object are considered. A problem of proper neuroemulator choosing for neurocontroller training is ana- lyzed. A new criterion on the basis of local control gradients analysis for input neuroemulator's neurons is proposed. Results of numerical simulations of neurocontroller training by a gradient descent method and for an Extended Kalman Filter method are given. Keywords: neurocontrol, neuroemulator, Recurrent Neural Network, Extended Kalman Filter. 1. Вступ Нейроуправління є різновидом адаптивного керування, коли як будівельні блоки систем керування використовуються штучні нейронні мережі. Нейронні мережі мають ряд уніка- льних властивостей, які роблять їх потужним інструментом для створення систем керуван- ня: здатність до навчання на прикладах і до узагальнення даних, здатність адаптуватися до зміни властивостей об'єкта керування і зовнішнього середовища, придатність для синтезу нелінійних регуляторів. За останні 20 років було розроблено велику кількість методів ней- роуправління, найпопулярнішими на даний момент серед яких є методи нейроуправління з еталонною моделлю [1] (Model Reference Adaptive Neurocontrol) і системи адаптивної кри- тики [2] (Adaptive Critics). Метод нейроуправління з еталонною моделлю, також відомий як «схема з нейрое- мулятором і нейроконтролером» або «зворотне поширення в часі», був запропонований на початку 1990-х [1], [3, С. 168], [4–6], [7, C. 978], [8, С. 861]. Цей метод не вимагає знання математичної моделі об'єкта керування. Замість цього прямій динаміці об'єкта керування навчається окрема нейронна мережа, нейроемулятор, далі вона використовується для об- числення похідних при навчанні нейроконтролера. При цьому з множини навчених нейроемуляторів зазвичай обирають той, що забез- печив найменшу середньоквадратичну помилку моделювання об'єкта керування. Однак, чи є такий критерій кращим, якщо нейромережа використовується з метою подальшого на- вчання іншої нейромережі, послідовно підключеної до першої, а не власне для моделю- вання об'єкта керування? 62 ISSN 1028-9763. Математичні машини і системи, 2012, № 3 У статті пропонується новий критерій відбору нейроемуляторів, який дозволяє в се- редньому більш ефективно навчати нейроконтролери в методі нейроуправління з еталон- ною моделлю та приводяться результати чисельних експериментів на типовій завдачі ке- рування динамічним об'єктом. 2. Метод нейроуправління з еталонною моделлю Нехай задано динамічний об'єкт керування, поведінка якого визначається дискретними формулами (1–2): )),(),(()1( kukSkS Φ=+ (1) )),(()1( kSky Ψ=+ (2) де )(ku – вхідний сигнал, )1( +ky – вихідний сигнал на такті k . Формули (1–2) вважають- ся апріорі невідомими. Незважаючи на те, що стан динамічного об'єкта )(kS є недоступ- ним для зовнішнього спостереження, його можливо оцінити різними способами. Для оцін- ки стану )(kS ми використовуємо модель NARX: .])(...)()(...)([)( TNkykyLkukukS −−= (3) Мета керування формулюється таким чином: нехай на такті k об'єкт керування пе- ребуває в положенні )(ky і задана уставка )1( +kr , яка є бажаним положенням об'єкта ке- рування на наступному такті. Контролеру необхідно згенерувати такий сигнал керування )(ku , щоб зробити відмінність між уставкою )1( +kr та положенням )1( +ky мінімальним. У методі нейроуправління з еталонною моделлю уставка )1( +kr додатково згладжується еталонною моделлю, в ролі якої використовується, як правило, стабільна лінійна динаміч- на система невеликого порядку. Таким чином, замкнений нейроконтролером об'єкт керу- вання мусить мати таку ж поведінку, як і еталонна модель. При стандартному використанні нейронних мереж для вирішення задач розпізна- вання зазвичай існують 2 етапи функціонування: 1) етап навчання нейронної мережі на прикладах даних; 2) етап використання навченої мережі для розпізнавання. Метод нейроуправління з еталонною моделлю (рис. 1) передбачає 3 етапи: 1) етап навчання в режимі офф-лайн першої нейронної мережі, нейроемулятора, моделюванню об'єкта керування; 2) етап навчання в режимі он-лайн другої нейронної мережі, нейроконтролера, керуванню об'єк- том керування; 3) етап використання навче- ного нейроконтролера для керуван- ня об'єктом (нейроемулятор на цьо- му фінальному етапі не використо- вується). 3. Навчання нейроемуляторів Нейроемулятор являє собою нейронну мережу, навчену прямій динаміці об'єкта керуван- ня. У статті використано багатошаровий персептрон як нейронну мережу. Навчання ней- Рис. 1. Структурна схема методу нейроуправління з еталонною моделлю ISSN 1028-9763. Математичні машини і системи, 2012, № 3 63 роемулятора виконується згідно зі схемою «навчання з учителем». Нейромережа отримує на вхід )(kx стан )(kS об'єкта керування. Таким чином, нейроконтролер являє собою не- рекурентну мережу, його «динамізація» відбувається за рахунок використання динамічних входів (3). Розрахунок вихідного значення мережі )1(~ +ky виконується за формулою ),)(()1(~ )1()2( ∑ ∑=+ j i ijij xwfwgky (4) де )1(w – вагові коефіціенти нейронів прихованого шару, )(⋅f – активаційні функції нейро- нів прихованого шару, )2(w – вагові коефіціенти нейронів вихідного шару, )(⋅g – актива- ційні функції нейронів вихідного шару. У наших експериментах були використані персеп- трони з одним прихованим шаром і тангенціальними активаційними функціями у прихо- ваному і вихідному шарах. На рис. 2 показано нейроемулятор з чотирма нейронами у при- хованому шарі, який отримує на вхід стан з параметрами 0=L і 1=N . Подібним чином сконструйовані нейрое- мулятори можуть навчатися різними градіентни- ми оптимізаційними методами з обчисленням похідних за методом зворотного поширення по- милки (Backpropagation, BP). При цьому розмір обраного часового вікна, заданого параметрами L і N , має бути встановленим приблизно рівним порядку модельованого динамічного процесу, інакше алгоритму навчання буде неможливо знайти кореляцію між входом нейромережі і ці- льовим виходом. 4. Навчання нейроконтролерів У нашій роботі нейроконтролери являють собою багатошарові персептрони з одним при- хованим шаром, однак для них неможливе навчання з учителем, оскільки цільові значення керуючих сигналів )(ku невідомі. Для корекції ваг нейроконтролера використовується ме- тод зворотного поширення помилки через попередньо навчений нейроемулятор. Навчання нейроконтролера виконується в режимі он-лайн, паралельно з керуванням об'єктом. На такті k нейроконтролер отримує на вхід значення уставки )1( +kr та вектор стану )(kS : TCO kSkrkx ])()1([)( += (5) і генерує керуючий сигнал )(ku (рис. 1). Сигнал )(ku надходить до об'єкта керування й переводить його в положення )1( +ky і одночасно на нейроемулятор, який генерує реак- цію )1(~ +ky . Якщо нейроемулятор є добре навченим, то ε<+−+ )1(~)1( kyky , у наших експериментах 310−≈ε . Також значення уставки )1( +kr надходить на еталонну модель, яка генерує цільове значення для навчання нейроконтролера )1( +krm . У ролі еталонної моделі використовується стабільна лінійна динамічна система першого порядку з передат- ною функцією 1 1 )( + = as sT , значення параметра 0>a змінюються, а також просто дублю- ється значення уставки )1( +kr (цей випадок в описі експериментів зазначено як 0=a ). На Рис. 2. Багатошаровий персептрон для моделювання динамічного процесу 64 ISSN 1028-9763. Математичні машини і системи, 2012, № 3 підставі вихідного значення еталонної моделі )1( +krm і нового положення об'єкта керу- вання )1( +ky формується поточна помилка керування )(ke : ).1()1()( +−+= kykrmke (6) Далі відбувається етап корекції ваг нейроконтролера залежно від обраного алгоритму оп- тимізації. Нами використано дві версії методу нейроуправління з еталонною моделлю: з методом градієнтного спуска [1, 3] і з методом розширеного фільтра Калмана [4–5]. Метод градієнтного спуска. При використанні цього алгоритму помилка керування )(ke (6) пропускається через нейроемулятор у зворотному напрямку за методом зворотно- го поширення помилки, при цьому корекція ваг нейроемулятора не виконується. Для вхід- них нейронів нейроемулятора розраховується вектор локальних градієнтів INδ : ,]...[ 21 ++= LN IN δδδ (7) з компонентів якого вибирається локальний градієнт uδ , відповідний до нейрона нейрое- мулятора, на який надходить керування )(ku . Назвемо цей локальний градієнт uδ керую- чим локальним градієнтом. При використанні вхідного вектора (5) 2δδ =u . Керуючий ло- кальний градієнт uδ пропускається далі через нейроконтролер за методом зворотного по- ширення помилки. Він використовується при розрахуванні локальних градієнтів прихова- ного і вхідного шарів нейроконтролера, а також похідної помилки по вагових коефіцієнтах прихованого й вихідного шарів нейроконтролера: )1(w E ∂ ∂ і )2(w E ∂ ∂ . Далі проводиться корекція ваг за методом градієнтного спуска: )()()1( kwkwkw ∆+=+ α , де α – швидкість навчання, )( )( )( kw kE kw ∂ ∂=∆ . Метод розширеного фільтра Калмана. Для корекції ваг нейроконтролера за методом розширеного фільтра Калмана на кожному такті k також використовується механізм зво- ротного поширення помилки через нейроемулятор, але тепер пропускається не поточне значення помилки )(ke (6), а значення 1, що при тих же обчисленнях забезпечує отриман- ня векторів якобіанів )1( ~ w y ∂ ∂ і )2( ~ w y ∂ ∂ замість векторів градієнтів )1(w E ∂ ∂ і )2(w E ∂ ∂ , оскільки w y ke w E ∂ ∂= ∂ ∂ ~ )( . Ці якобіани на кожному такті формують матрицю спостережень фільтра Ка- лмана )(kH розміром K×1 , K – сумарна кількість елементів матриць )1(w і )2(w . На початку роботи алгоритму навчання задається кореляційна матриця P розміром KK × . На першому такті вона встановлюється рівній одиничній матриці: IP =)1( . Ми не розбиваємо матрицю P на кілька окремих матриць, як це робиться в методі незв'язного розширеного фільтра Калмана (DEKF) [4], [7, С. 960], [8, C. 855], оскільки подібне розбит- тя виконується винятково з метою економії обчислювальних ресурсів. Задається матриця швидкості навчання η 1=R , в нашому прикладі 001,0=η , і матриця шуму процесу Q , у нас IQ 410−= . На такті k , після знаходження помилки керування )(ke і заповнення мат- риці )(kH описаним вище способом, проводяться розрахунки нових значень вагових кое- фіцієнтів нейроконтролера )1( +kw і матриці кореляції )1( +kP : ,])()()([)()()( 1−+= RkHkPkHkHkPkK TT (8) ISSN 1028-9763. Математичні машини і системи, 2012, № 3 65 ,)()()()()1( QkPkHkKkPkP +−=+ (9) ).()()()1( kekKkwkw +=+ (10) Зазначимо, що градієнти w E ∂ ∂ і якобіани w y ∂ ∂~ для навчання нейроконтролера обчис- люються звичайним методом зворотного поширення помилки (Backpropagation), а не ме- тодом усіченого зворотного поширення помилки в часі (BPTT(h)) [7, C. 942], [8, C. 836], [9] або рекурентного навчання в реальному часі (RTRL) [7, С. 949], [8, C. 840], [9-10]. Не дивлячись на те, що замкнена динамічна система має рекурентні зв'язки, використання статичних похідних є коректним, оскільки, по-перше, використані нами мережі не мають внутрішніх рекурентних зв'язків, а по-друге, тому, що при зворотному поширенні градієн- та через послідовно з'єднаний нейроконтролер і нейроемулятор має місце ефект зникнення градієнта, що робить зазначені динамічні похідні чисельно дуже близькими до використо- вуваних нами статичних похідних вже при глибині усікання 1=h . 5. Параметр Θ для нейроемуляторів У ході експериментів по навчанню нейроконтролерів виявлено, що деякі добре навчені нейроемулятори з помилкою порядка 610− не завжди забезпечують якісне навчання нейро- контролерів. При навчанні методом фільтра Калмана частина нейроконтролерів взагалі не навчилася. При аналізі локальних градієнтів вхідних нейронів нейроемуляторів INδ (7), які ро- зраховуються під час навчання нейроконтролерів, виявлено, що в таких неуспішних ней- роемуляторах абсолютні значення керуючих локальних градієнтів uδ відносно малі в порі- внянні з модулями інших локальних градієнтів векторів INδ . При цьому точність нейрое- муляторів у сенсі середньоквадратичної помилки приблизно рівна. Це можна пояснити в такий спосіб. Представимо, що послідовно з'єднані нейроемулятор і нейроконтролер є єдина нейронна мережа, в якій перші два шари ваг відповідають нейроконтролеру, а другі два шари – нейроемулятору. При навчанні нейроконтролера локальні градієнти пропуска- ються через ваги нейроемулятора і попадають на нейроконтролер через вхідний нейрон нейроемулятора, відповідний до вихідного нейрона нейроконтролера. Це означає, що при цьому використовується тільки керуючий локальний градієнт uδ із усього вектора INδ , для інших локальних градієнтів зворотне поширення закінчується на даному етапі і вони не впливають на корекцію ваг нейроконтролера. Для оцінки відносної величини модулів локальних керуючих градієнтів uδ ми вво- димо параметр θ : , )( )()()(1 1 2 2 2 2 2 2 1∑ = +++++= n k u LN k kkk n δ δδδθ K (11) де n – кількість елементів навчальної виборки. Локальні градієнти },...,2,1{),(),...,( 21 nkkk LN =++δδ обчислюються методом зворотного поширення помилки, який застосовується на навчальній виборці після навчання нейроемулятора, для пропуску через нейроемулятор завжди використовується величина 1. 6. Результати навчання нейроемуляторів У нашій роботі для чисельних експериментів по ідентифікації і керуванню використано нелінійний динамічний об'єкт другого порядку з [11], який, у свою чергу, є незначно мо- дифікованою версією об'єкта керування з [1]. Об'єкт керування задано формулою 66 ISSN 1028-9763. Математичні машини і системи, 2012, № 3 Таблиця 1. Характеристики навчених нейроемуляторів MSE, мін. MSE, середнє θ , мін. θ , середнє Нейроемулятори A 61022,7 −× 61017,9 −× 32,2 73,18 Нейроемулятори Б 61048,8 −× 61032,9 −× 00,2 23,11 , )2()1(1 )(]1)2()[1()2()1()( )1( 22 −+−+ +−−−−−=+ kyky kukykukykyky ky (12) де )(ku – вхідний сигнал, )1( +ky – вихідний сигнал на такті k . Навчання нейроемуляторів проводилося в середовищі MATLAB без використання пакета Neural Networks Toolbox. На об'єкт подавався ідентифікаційний сигнал )300/2sin()( kku π= і проводилося протоколювання виходів )(ky . На основі записаних да- них були сформовані навчальна і тестова вибірки прикладів динаміки в кількості 1000 і 200 прикладів відповідно. На них були навчені нейроемулятори методом навчання з учи- телем. Як алгоритм навчання був використаний метод глобального розширеного фільтра Калмана (Global Extended Kalman Filter, GEKF) [7, С. 955], [8, С. 854], [10]. Для обчислення якобіанів нейромереж w y ∂ ∂~ , які необхідно мати для роботи алгоритму GEKF, використову- вався метод зворотного поширення помилки. Для всіх шарів нейромереж були використані тангенціальні активаційні функції, кількість нейронів у прихованому шарі варіювалася від 3 до 7. Усього було на- вчено 2 множини по 250 нейроемуляторів: ней- роемулятори A, куди потрапили нейроемуля- тори, для яких значення MSE менше 5101 −× , та нейроемулятори Б, які містять нейроемулятори, для яких MSE менше 5101 −× і, додаткова умова, 20<θ (табл. 1). Для оцінки якості нейроемуляторів використовувалася стандартна формула середньоквад- ратичної помилки: >−=< 2)~( kk tyMSE , де ky~ – вихід нейромережі, kt – цільове значення. 7. Результати навчання нейроконтролерів Після навчання нейроемуляторів було прове- дено навчання нейроконтролерів, для чого нейромережі і алгоритми їх навчання були змодельовані в середовищі Simulink, без ви- користання пакета Neural Network Blockset. Кожний експеримент по навчанню нейрокон- тролерів тривав 100 250 тактів, з яких упро- довж 100 000 тактів на нейроконтролер пода- вався випадковий процес і виконувалося їх навчання методами градієнтного спуска або розширеного фільтра Калмана (навчальна ді- лянка); далі протягом 250 тактів, що залиши- лися, ваги нейроконтролерів не коректували- ся, на них подавалася тестова уставка, як по- казано на рис. 3 (тестова ділянка), і фіксува- лося середньоквадратичне відхилення MSE траєкторії проходження об'єкта керування від траєкторії еталонної моделі на цій ділянці. Рис. 3. Приклад траєкторії руху об’єкта керування з навченим нейроконтролером на тестовій ділянці, а=0,001, помилка керування MSE=0,0019 ISSN 1028-9763. Математичні машини і системи, 2012, № 3 67 Для кожного з нейро- емуляторів з множин А і Б було навчено по 4 нейроконтролери з різними параметрами a еталонної моделі, результати наведено в табл. 2–3. При приб- лизно рівній якості навчання нейроемуля- торів (табл. 1) викори- стання запропонова- ного критерію відбору нейроемуляторів, які склали множину ней- роемуляторів Б, забез- печило підвищення якості навчання ней- роконтролерів у сере- дньому на 25–30% для навчання методом градієнтного спуска і приблизно на порядок – для навчання мето- дом розширеного фі- льтра Калмана. 8. Висновки В роботі запропоновано новий критерій відбору нейроемуляторів для навчання нейроконт- ролерів у методі нейроуправління з еталонною моделлю. Було проведено експерименталь- не дослідження пропонованого критерію з навчанням 500 нейроемуляторів і 4000 нейро- контролерів, що показало його ефективність у порівнянні з традиційним способом відбору нейроемуляторів за методом найменшої середньоквадратичної помилки на тестовій вибор- ці даних. У рамках подальших досліджень планується випробувати даний критерій разом з іншими методами нейроуправління, в яких передбачено етап попередньої нейроідентифікації об'є- кта керування: прогнозуючого модельного нейроуправління [6], [12] і гібридного нейро- ПІД керування [3, C. 159], [6], а також з використанням кубатурного фільтра Калмана [8, C. 787], [13]. СПИСОК ЛІТЕРАТУРИ 1. Narendra K.S. Identification and control of dynamical systems using neural networks / K.S. Narendra, K.K. Parthasarathy // IEEE Transactions on Neural Networks. – 1990. – N 1. – P. 4 – 27. 2. Prokhorov D. Adaptive Critic Designs / D. Prokhorov, D. Wunsch // IEEE Transactions on Neural Networks. – 1997. – Vol. 8, N 5. – P. 997 – 1007. 3. Омату С. Нейроуправление и его приложения / Омату С., Халид М., Юсоф Р.; пер. с англ. – М.: ИПРЖР, 2000. – 272 с. Таблиця 2. Помилки керування навчених нейроконтролерів, навчання методом градієнтного спуска 0a = 0,001a = 0,002a = 0,005a = Нейроемулятори А, MSE, мін. 0,0072 0,0060 0,0066 0,0107 Нейроемулятори Б, θ < 20, MSE, мін. 0,0074 0,0059 0,0064 0,0106 Нейроемулятори А, MSE, середнє 0,0117 0,0101 0,0102 0,0135 Нейроемулятори Б, θ < 20, MSE, середнє 0,0088 0,0072 0,0075 0,0112 Таблиця 3. Помилки керування навчених нейроконтролерів, навчання методом розширеного фільтра Калмана 0a = 0,001a = 0,002a = 0,005a = Нейроемулятори А, MSE, мін. 0,0013 0,0019 0,0018 0,0017 Нейроемулятори Б, θ < 20, MSE, мін. 0,0013 0,0019 0,0018 0,0017 Нейроемулятори А, MSE, середнє 0,0396 0,0420 0,0419 0,0539 Нейроемулятори Б, θ < 20, MSE, середнє 0,0030 0,0045 0,0054 0,0351 68 ISSN 1028-9763. Математичні машини і системи, 2012, № 3 4. Feldkamp L.A. Training controllers for robustness: multi-stream DEKF / L.A. Feldkamp, G.V. Pusko- rius // Proc. of International Conference on Neural Networks, (Orlando, FL, USA, 27 Jun – 2 Jul 1994). – 1994. – Vol. 4. – P. 2377 – 2382. 5. Prokhorov D.V. Toyota Prius HEV Neurocontrol and Diagnostics / D.V. Prokhorov // Neural Networks. – 2008. – N 21. – P. 458 – 465. 6. Чернодуб А.Н. Обзор методов нейроуправления / А.Н. Чернодуб, Д.А. Дзюба // Проблемы про- граммирования. – 2011. – № 2. – С. 79 – 94. 7. Хайкин C. Нейронные сети: полный курс / Хайкин C.; пер. с англ. – [2-е изд., испр.]. – М.: Виль- ямс, 2006. – 1104 c. 8. Haykin S. Neural Networks and Learning Machines, Third Edition / Haykin S. – New York: Prentice Hall, 2009. – 936 p. 9. De Jesus O. Backpropagation: Algorithms for a Broad Class of Dynamic Networks / O. De Jesus, M.T. Hagan // IEEE Transactions on Neural Networks. – 2007. – Vol. 18, N 1. – P. 14 – 27. 10. Cernansky M. Simple recurrent network trained by RTRL and extended Kalman filter algorithms / M. Cernansky, L. Benuskova // Neural Network World. – 2003. – Vol. 3, N 13. – P. 223 – 234. 11. Venelinov Topalov A. Online learning in adaptive neurocontrol schemes with a sliding mode algo- rithm / A. Venelinov Topalov, O. Kaynak // IEEE Transactions on Systems, Man and Cybernetics. Part B: Cybernetics. – 2001. – Vol. 31, Is. 3. – P. 445 – 450. 12. Hagan M.T. Neural networks for control / M.T. Hagan, H.B. Demuth // Proc. of the American Control Conference. – San Diego, USA, 1999. – Vol. 3. – P. 1642 – 1656. 13. Arasaratnam I. Cubature Kalman Filters / I. Arasaratnam, S. Haykin // IEEE Transactions on Automat- ic Control. – 2009. – Vol. 54, Is. 6. – P. 1254 – 1269. Стаття надійшла до редакції 29.03.2012
id nasplib_isofts_kiev_ua-123456789-60004
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 1028-9763
language Ukrainian
last_indexed 2025-12-07T18:54:37Z
publishDate 2012
publisher Інститут проблем математичних машин і систем НАН України
record_format dspace
spelling Чернодуб, А.М.
2014-04-11T08:30:48Z
2014-04-11T08:30:48Z
2012
Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю / А.М. Чернодуб // Мат. машини і системи. — 2012. — № 3. — С. 61-68. — Бібліогр.: 13 назв. — укр.
1028-9763
https://nasplib.isofts.kiev.ua/handle/123456789/60004
681.513.7
Розглядаються задачі нейроідентифікації і нейроуправління з еталонною моделлю для &#xd; нелінійного динамічного об'єкта. Аналізується проблема вибору нейроемулятора для навчання &#xd; нейроконтролера, пропонується новий критерій на основі аналізу керуючих локальних градієнтів &#xd; для вхідних нейронів нейроемулятора. Наводяться результати чисельних експериментів щодо навчання нейроконтролерів методами градієнтного спуска і розширеного фільтра Калмана.
Рассматриваются задачи нейроидентификации и нейроуправления с эталонной моделью для нелинейного динамического объекта. Анализируется проблема выбора нейроэмулятора &#xd; для обучения нейроконтроллера, предлагается новый критерий на основе анализа управляющих &#xd; локальных градиентов для входных нейронов нейроэмулятора. Приводятся результаты множественных численных экспериментов по обучению нейроконтроллеров методами градиентного спуска &#xd; и расширенного фильтра Калмана.
Neuroidentification and neurocontrol with the reference model problems for nonlinear dynamic &#xd; object are considered. A problem of proper neuroemulator choosing for neurocontroller training is anayzed. A new criterion on the basis of local control gradients analysis for input neuroemulator's neurons is &#xd; proposed. Results of numerical simulations of neurocontroller training by a gradient descent method and &#xd; for an Extended Kalman Filter method are given.
uk
Інститут проблем математичних машин і систем НАН України
Математичні машини і системи
Обчислювальні системи
Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю
Выбор нейроэмулятор на основе метода управляющих локальных градиентов в методе нейроуправлиння с эталонной моделью
Neuroemulator choosing on the base of local control gradients for Model Reference Adaptive Neurocontrol
Article
published earlier
spellingShingle Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю
Чернодуб, А.М.
Обчислювальні системи
title Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю
title_alt Выбор нейроэмулятор на основе метода управляющих локальных градиентов в методе нейроуправлиння с эталонной моделью
Neuroemulator choosing on the base of local control gradients for Model Reference Adaptive Neurocontrol
title_full Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю
title_fullStr Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю
title_full_unstemmed Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю
title_short Вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю
title_sort вибір нейроемулятора на основі методу керуючих локальних градієнтів у методі нейроуправління з еталонною моделлю
topic Обчислювальні системи
topic_facet Обчислювальні системи
url https://nasplib.isofts.kiev.ua/handle/123456789/60004
work_keys_str_mv AT černodubam vibírneiroemulâtoranaosnovímetodukeruûčihlokalʹnihgradíêntívumetodíneiroupravlínnâzetalonnoûmodellû
AT černodubam vyborneiroémulâtornaosnovemetodaupravlâûŝihlokalʹnyhgradientovvmetodeneiroupravlinnâsétalonnoimodelʹû
AT černodubam neuroemulatorchoosingonthebaseoflocalcontrolgradientsformodelreferenceadaptiveneurocontrol