Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях

Разработана методика расчёта и обучения моделей нелинейных объектов на полиномиальных рекуррентных
 нейронных сетях (ПРНС). Получены модели на ПРНС разной степени для тиристорного электропривода с
 двигателем постоянного тока последовательного возбуждения. Выполнены исследования и ан...

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2008
Автори: Орловский, И.А., Синявский, А.А.
Формат: Стаття
Мова:Російська
Опубліковано: Інститут проблем штучного інтелекту МОН України та НАН України 2008
Теми:
Онлайн доступ:https://nasplib.isofts.kiev.ua/handle/123456789/7144
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях / И.А. Орловский, А.А. Синявский // Штучний інтелект. — 2008. — № 3. — С. 579-590. — Бібліогр.: 7 назв. — рос.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1860038297442582528
author Орловский, И.А.
Синявский, А.А.
author_facet Орловский, И.А.
Синявский, А.А.
citation_txt Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях / И.А. Орловский, А.А. Синявский // Штучний інтелект. — 2008. — № 3. — С. 579-590. — Бібліогр.: 7 назв. — рос.
collection DSpace DC
description Разработана методика расчёта и обучения моделей нелинейных объектов на полиномиальных рекуррентных
 нейронных сетях (ПРНС). Получены модели на ПРНС разной степени для тиристорного электропривода с
 двигателем постоянного тока последовательного возбуждения. Выполнены исследования и анализ полученных
 моделей методом имитационного моделирования.
first_indexed 2025-12-07T16:54:30Z
format Article
fulltext «Штучний інтелект» 3’2008 579 7-О УДК 621.313 И.А. Орловский, А.А. Синявский Запорожский национальный технический университет, г. Запорожье, Украина i_orlovsky@mail.ru, bestmind@walla.com Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях Разработана методика расчёта и обучения моделей нелинейных объектов на полиномиальных рекуррентных нейронных сетях (ПРНС). Получены модели на ПРНС разной степени для тиристорного электропривода с двигателем постоянного тока последовательного возбуждения. Выполнены исследования и анализ полученных моделей методом имитационного моделирования. Введение Исследование и первоначальную отладку новых систем управления (СУ), а также корректировку настройки СУ в процессе работы электромеханических объектов (для обеспечения заданного качества управления) целесообразно выполнять на имитационной математической модели, описывающей с достаточной точностью реальный объект в текущий промежуток времени. В этом случае возникает необходимость получения модели объекта за минимальное время. Для реализации моделей объектов в последнее время широко используются искусственные нейронные сети (НС), способные обучаться и обладающие возможностями универсальных аппроксиматоров [1-3]. Способность НС аппроксимировать нелинейные функции достигается за счёт использования нелинейных активационных функций нейронов, многослойности сети и большого числа соединений. Необходимая нелинейность также может быть достигнута за счёт расширения входного пространства в функционально связанных НС прямого распространения с линейными функциями активации [1]. В научной литературе, при получении модели объекта на НС, объект, как правило, рассматривается в виде «чёрного ящика». При таком представлении часто не удаётся получить модели объектов, описание которых возможно нелинейными дифференциальными уравнениями третьего порядка и выше, имеющих требуемую точность и обобщающие свойства. С другой стороны, для используемых в промышленности электромеханических объектов разработаны общие математические модели, описывающие работу этих объектов. Снижение времени поиска структуры модели и внутренних её параметров можно достигнуть, максимально используя уже известную информацию о математи- ческой модели объекта. В этом случае перспективно создавать модель на НС со струк- турой, подобной структуре объекта, что позволяет эмулировать в модели физические процессы, происходящие в объекте [4], [5]. При «прозрачности» модели имеется возмож- ность по весовым коэффициентам НС идентифицировать значения внутренних пара- метров объекта [6] (что позволяет корректировать параметры СУ), осуществлять анализ работы объекта и его диагностику. Орловский И.А., Синявский А.А. «Искусственный интеллект» 3’2008 580 7-О В [4], [5] рассмотрен расчёт моделей, соответственно, на степенных и полино- миальных рекуррентных НС (ПРНС) с использованием предварительных знаний о структуре математической модели объекта и знаний, для каких параметров объекта и от каких величин имеются нелинейности, однако обучение градиентными алгорит- мами ПРНС заданной структуры не рассматривалось. Целью статьи является: с использованием известного математического описания нелинейных электромеханических объектов (на примере тиристорного электропривода с двигателем постоянного тока последовательного возбуждения (ТЭП с ДПТПВ)) выпол- нить обучение моделей этих объектов на ПРНС и сравнить их с моделями на ПРНС, полученными расчётом из экспериментальных данных. Математические основы представления модели нелинейного объекта в виде ПРНС Пусть объект в пространстве состояний описывается в виде нелинейной системы уравнений: ВuАхx += , (1) где T qxxxх ]...,,,[ 21= и T muuuu ]...,,,[ 21= – векторы состояния объекта и входных сигналов; А и В – матрицы нелинейных коэффициентов, размером qq× и mq× соответственно. Будем считать, что измеряется весь вектор состояния, тогда выход объекта равен вектору состояния. В общем случае для нелинейного объекта коэффициенты матриц А и В могут быть нелинейными от всех элементов вектора состояния объекта, от всех входных (управ- ляющих и возмущающих) сигналов и от всех производных перечисленных выше сигналов. Для описания нелинейных коэффициентов удобно записать уравнение объекта (1) в виде: CYx= , (2) где T mq uuuxxxY ],...,,,,...,,[ 2121= – вектор размера – K×1 ( mqK += ), объединяющий векторы состояния объекта и входных сигналов; C – матрица нелинейных коэффи- циентов размером Kq× , полученная объединением матриц А и В . Для удобства пере- обозначим элементы вектора Y : T KyyyY ],...,,[ 21= . Когда существует нелинейная зависимость элементов матрицы C от всех элемен- тов вектора состояния и всех входных сигналов, вектором величин, от которых имеются нелинейности, является вектор Y . В случае существования зависимости элементов мат- рицы C не только от этих сигналов, но и от производных элементов вектора состояния и входных сигналов по времени, для простоты описания введём вектор Z (объединяющий величины, от которых имеются нелинейности) T K PP KKK ydydydyddydyyyZ ],...,,...,,...,,,...,,,...,[ 1 2 1 2 11= , (3) размером )1( += PKR , где yd i – i -е производные по времени элементов вектора Y . При этом количество производных для всех элементов вектора Y взято одинаковым, равным P . Общая структура ПРНС приведена на рис. 1. Для расчёта ПРНС по известной математической модели объекта необходимо найти полиномиальные представления всех нелинейных элементов матрицы С через элементы вектора Z . В разностном виде уравнение (2) при такте счёта T и вычислении производной по выражению ( ) Txxx nn 1−−= имеет вид: nnn TCYxx += −1 . (4) Расчет и обучение моделей нелинейных электромеханических объектов… «Штучний інтелект» 3’2008 581 7-О Рисунок 1 – Общая структура ПРНС По коэффициентам полиномов элементов матрицы C рассчитываются весовые коэффициенты ПРНС по выражению:               =               == qKqq K K qKrqrqr Krrr Krrr r www www www TcPolTcPolTcPol TcPolTcPolTcPol TcPolTcPolTcPol TCPolW ... ... ... ... )(...)()( ... )(...)()( )(...)()( )( 21 22221 11211 21 22221 11211 , (5) где: )(rPol – функция, определяющая вектор коэффициентов полинома степени r для выражения, находящегося в скобках; )( ijrij TcPolw = – элементы матрицы весовых коэффициентов ПРНС. Функции активации всех нейронов ПРНС являются линей- ными с коэффициентами, равными единице. Расчёт весовых коэффициентов ПРНС по экспериментальным данным Для удобства описания ПРНС и выполнения дальнейших расчётов воспользуемся полиномиальными блоками POL (рис. 2) [5]. Эти блоки формируют произведения (с единичными коэффициентами) полиномиальных членов степени «r » от нормализован- ных сигналов jz вектора Z на соответствующий ненормализованный сигнал. Внутри блока возле каждого входного сигнала устанавливается число без скобок (например, возле входов nz1 и nz2 записано «r »), обозначающее, что выходные сигналы блока содержат полиномиальные члены со всеми степенями от 0 до r переменных nz1 и nz2 . Сигналы, Орловский И.А., Синявский А.А. «Искусственный интеллект» 3’2008 582 7-О поступающие на эти входы, нормализуются с помощью блоков нормализации с коэф- фициентами передачи max1 iz . Если число находится в скобках (например, запись «(1)» возле входа ny1 ), тогда все полиномиальные члены умножаются на эту переменную ny1 только в той степени, которая указана в скобках. При этом сигналы, поступающие на входы, обозначенные числами в скобках, не нормализуются. Выходы блоков POL обозначим векторами ijh с такими же индексами, как у элементов векторов весовых коэф- фициентов ijw и элементов ijc . Рисунок 2 – Полиномиальный блок POL, формирующий для элемента ijc произведение ненормализованного сигнала ny1 на полиномиальные члены степени r (от нормализованных сигналов nz1 и nz2 ) При нелинейной зависимости элементов ijc от всех нормализованных элементов jz вектора Z и степени r полинома вектор ijh в n -м такте определяется следующим образом: .]...,...,...,...,......, ,...,...,...,...[ 121 0 121 1 1 0 2 0 1 01 1 0 2 0 1 0 1 0 2 0 1 00 1 0 2 0 1 T jn r Rn r nR r n r njnRn r nR r n r njn r RnnRnn jnRnnRnnjn r RnnRnnjnRnnRnnijn yzzzzyzzzzyzzzz yzzzzyzzzzyzzzzh −−− −−−= (6) С учётом приведенных выше обозначений систему уравнений (4) можно представить в следующем виде: ,inini xhw ∆= qi ,...,1= , (7) где inh – векторы-столбцы, полученные добавлением соответственно к векторам nih 1 снизу последовательно элементов векторов-столбцов nih 2 , …, iKnh ; iw – векторы- строки, полученные добавлением соответственно к векторам-строкам 1iw справа последовательно элементов векторов-строк 2iw ,…, iKw ; 1−−=∆ ininin xxx [5]. Для расчёта коэффициентов ПРНС по экспериментальным данным необходимо иметь количество уравнений, равное или большее числа неизвестных весовых коэффициентов ( N ) ПРНС. Для этого выполним измерение входных сигналов и вектора состояния объекта в NM ≥ последовательных тактах счёта. Тогда каждое из уравнений системы (7) даёт M уравнений: *** inii xhw ∆= , (9) где T iii www ],...,[* = , размера )1( ×M ; ],...,[ 1 * +−= Minini hhh , T Mininin xxx ]...,,[ 1 * +−∆∆=∆ , qi ,...,1= . Если число уравнений равно числу неизвестных коэффициентов ПРНС ( NM = ), тогда матрица искомых весовых коэффициентов определяется через обратную матрицу. В реальных условиях возможны ситуации, когда изменения вектора состояния объекта за Расчет и обучение моделей нелинейных электромеханических объектов… «Штучний інтелект» 3’2008 583 7-О время T не превышает точности измерения датчиков и тогда при M измерениях отсут- ствует обратная матрица. В этом случае число измерений необходимо взять больше M и определение весовых коэффициентов выполнять расчётом минимального среднеквадра- тичного отклонения для всех уравнений с помощью псевдообратных матриц +)( * ih по вы- ражению: +∆= )( *** iini hxw . (10) Обеспечение точной работы модели в начальный момент времени достигается заданием вектора начальных состояний во временных задержках ПРНС. Обучение ПРНС Структура ПРНС во многом схожа с сетью Хопфилда [1], рекуррентной НС, рассмотренной Нарендой [3] и рекуррентной НС, рассмотренной Хайкиным [2]. Наличие полиномиального расширения сигналов на входе ПРНС приводит к изменению известных алгоритмов обучения в виде дополнительного вычисления вектора ih при подготовке обучающих наборов. Так как известны векторы сигналов в каждом такте счёта, а следовательно, и векторы ih , обучение НС можно выполнять отдельно для каждого нейрона с использованием алгоритмов обучения одиночного нейрона. Цель процесса обучения – минимизация суммарных среднеквадратичных ошибок iE ( i – номер нейрона) между элементами вектора состояния объекта и выходными сигналами НС при одинаковой последовательности входных сигналов, при этом: ∑ = = VN n ini eE 1 2 2 1 , (11) nn iini gxe ∆−∆= , (12) где ni e – ошибка выхода i -го нейрона в n -м такте счёта; VN – объём обучающей выборки; 1−−=∆ ininin ggg – разность в n -м такте между текущим ing и предыдущим 1−ing значениями i -го элемента выходного вектора ПРНС. Используя уравнение (11), частная производная ошибки iE по весовому коэффициенту ikw при обучении на данных n -го такта имеет вид: knknin iini hewE ⋅−=∂∂ , (13) где knih – значения k -го элемента вектора ih для данных n -го такта. Коррекция весовых коэффициентов i -го нейрона НС (вектор i w ) на основе градиентного метода обучения производится по формуле: knkтikninkтikтikтikтi iini hewwEwwww ⋅⋅+=∂∂⋅−=∆+= −−− ηη 111 , (14) где kni w∆ – приращение веса k -го элемента вектора i w для сигналов, измеренных в n -м такте; η – коэффициент обучения. Орловский И.А., Синявский А.А. «Искусственный интеллект» 3’2008 584 7-О Результаты расчёта и обучения моделей электропривода на ПРНС Построение модели на ПРНС выполнялось для ТЭП с ДПТПВ. Управление приводом, содержащим тиристорный преобразователь и двигатель постоянного тока, осуществляется изменением напряжения управления УU на входе преобразователя. На привод действует возмущающее воздействие в виде статического момента сопротивления СM . Выходными координатами привода являются: напряжение U на зажимах двигателя (поступающее с выхода преобразователя), якорный ток I и угловая частота вращения якоря (скорость) ω двигателя. Динамика привода при непрерывном якорном токе двигателя описывается системой нелинейных уравнений [7]: , ),()( )()( )(          −⋅= ⋅−=⋅+ ⋅=+ C d уу MIDIсФ dt dJ IсФURI dt dIIL UUkU dt dUT ωω ω µ (15) где )( уUk – коэффициент усиления тиристорного преобразователя, зависящий (при линейном опорном напряжении системы импульсно-фазового управления (СИФУ)) от напряжения управления; µT – усреднённое значение постоянной времени тиристорного преобразователя; dR – эквивалентное активное сопротивление цепи постоянного тока; )(IL – эквивалентная индуктивность цепи постоянного тока, зависящая от тока якоря двигателя: )(IсФ – произведение конструктивной постоянной « c » двигателя на значение магнитного потока двигателя, зависящего от тока якоря двигателя; )(ωJ – приведенный к валу двигателя момент инерции привода. Указанный момент инерции привода для ряда механизмов зависит от угловой скорости двигателя. Для данного объекта вектором состояния является TIUx ],,[ ω= ; вектором входных сигналов – T Cу MUu ],[= . Весовые коэффициенты ПРНС, исходя из уравнения (15), могут быть вычислены по математической модели ТЭП с ДПТПВ по формуле [5]: 1 1 1 1 1 1 1 11 14 21 22 23 32 35 ( ) 0 0 ( ( ) ) 0 ( ( ) ) ( ( ) ) ( ( ) ( ) ) 0 0 0 ( ( ) ( ) ) 0 0 ( ( ) ) 0 0 0 0 0 . 0 0 0 У d POL T T POL T k U T W POL L I T POL R L I T POL L I cФ I T POL J cФ I T POL J T w w w w w w w µ µ ω ω − − − − − − −  −   = − − =    −      =      (16) Общая структура ПРНС, соответствующая уравнениям (15) и (16), представ- лена на рис. 3. Расчет и обучение моделей нелинейных электромеханических объектов… «Штучний інтелект» 3’2008 585 7-О Расчёт и исследование моделей на ПРНС выполнялось для ТЭП с ДПТПВ типа МП-62, имеющим следующие параметры: ВU н 220= ; AI н 260= ; нω =53,4 с-1; с =78,5; номинальное значение магнитного потока нФ = 0,048 Вб; индуктивность якоря ЯL = 0,00475 Гн; индуктивность потоков рассеяния δL = 0,0037 Гн; dR = 0,0647 Ом (при температуре 75°); момент инерции ротора двигателя ДJ = 0,56 кг·м2; µT = 0,01 с. Рисунок 3 – Структура модели ТЭП с ДПТПВ на ПРНС с использованием полиномиальных блоков Характеристика статической кривой намагничивания двигателя )(IfФ = такая же, как в статье [5]. В СИФУ тиристорного преобразователя используется опорное напряжение линейной формы, поэтому его коэффициент передачи является нелинейной зависимостью от уU и определяется из известного соотношения [7]:       = max. 0 2sin)( оп у у d у U U U ЕUk π , (17) где 0dЕ – максимальное значение электродвижущей силы на выходе преобразователя, определяемое его схемой и входным напряжением (при линейном напряжении сети, рав- Орловский И.А., Синявский А.А. «Искусственный интеллект» 3’2008 586 7-О ном 220 В, =0dE 297 В); max.опU =10 В – максимальное значение пилообразного опорного напряжения. Зависимость приведенного момента инерции к валу двигателя от угловой скорости двигателя )(ωJ зададим в виде следующего аналитического выражения 52,01 8,0 −−+ += ωe JJ Д . (18) Подобную зависимость могут иметь центрифуги, сепараторы, барабаны, су- шилки и другие механизмы. Для сигналов, поступающих на полиномиальные входы, выполнялась нормали- зация, для чего устанавливались блоки нормализации с коэффициентами передачи соответ- ственно max1 yU , max1 I , max1 ω , где maxyU =10 В, maxI = 600 А и maxω = 80 рад/c. Реализация ПРНС в стандартных средствах математического моделирования не предусмотрена, в связи с чем для этого были разработаны три программы в системе Matlab. Одна программа выполняет расчёт весовых коэффициентов ПРНС заданной степени по экспериментальным данным. Вторая программа отображает структуру и внутренние соединения ПРНС в виде блоков в пакете Simulink системы Matlab и выполняет моделирование динамики рассчитанных ПРНС. Третья программа для разных степеней ПРНС подготавливает обучающие наборы и выполняет обучение их с использованием обучающих алгоритмов системы Matlab. В третьей программе входными переменными являлись: структура ПРНС и её степень, коэффициенты нормализации, первичные данные для обучающих наборов, коэффициенты обучения, желаемая ошибка обучения; выходом являлся вектор весовых коэффициентов ПРНС, число эпох, значение среднеквадратичной ошибки. Для исследования влияния степени полиномов на точность моделей вычислялись и находились алгоритмами обучения коэффициенты ПРНС нулевой, первой, второй, третьей и пятой степеней. Задавались по две структуры ПРНС высоких степеней (третьей и пятой). Одна – для полиномов с полным набором степеней сигналов (PRNN3 и PRNN5), вторая ограничивала суммарную степень элементов в членах полинома до заданной (PRNN3с и PRNN5с). Рассматривался режим работы электропривода, когда его координаты, используемые для расчёта и обучения ПРНС в первые две секунды, изменялись в широком диапазоне. Проверка работы ПРНС выполнялась на других данных, изменяющихся в течение следующих трёх секунд в этом же диапазоне. Изменения напряжения управления и момента сопротивления показаны на рис. 4. а) б) Рисунок 4 – Изменения напряжения управления и момента сопротивления В табл. 1 приведены значения весовых коэффициентов ПРНС второй степени, рассчитанные по математической модели [5] (PRNN2_mat), вычисленные из экспе- риментальных данных (PRNN2_calc) и найденные алгоритмами обучения (PRNN2_train). Расчет и обучение моделей нелинейных электромеханических объектов… «Штучний інтелект» 3’2008 587 7-О Обучение ПРНС нулевой и первой степени выполнялось по данным первой секунды работы ЭП, для ПРНС второй и третьей степеней (для повышения обобщающих свойств) – по данным первых двух секунд работы ЭП. Согласно зависимости (16) элемент 11w является константой, рассчитываемой в виде и равной 05,01 11 −=−= − TTw µ , где T = 0,0005 с. Элементы 14w , 21w , 22w , 23w и 35w представляют собой векторы, состоящие из коэффициентов полиномов, зависящих от одной переменной. Эти полиномы упрощаются до степенных рядов, каждый из которых имеет общее число коэффициентов, равное (2+1)1=3. Элемент матрицы 32с зависит от двух сигналов, поэтому число коэффициентов полинома второго порядка равно (2+1)2= 9 и, следовательно, содержится такое же количество элементов в векторе 32w . Таблица 1 – Значения весовых коэффициентов ПРНС второй степени Обозначение ПРНС Значения весовых коэффициентов 11w PRNN2_mat –0,05 PRNN2_calc –0,04972 PRNN2_train –0,05 14w PRNN2_mat 2,3389 –0,00927 –0,00771 PRNN2_calc 2,3215 –0,00191 –0,009 PRNN2_train 2,3353 –0,0352 –0,8717 21w PRNN2_mat 0,0142 8.8e-19 0,1028 PRNN2_calc 0,0098 –0,01273 0,287466 PRNN2_train 0,0073 0,0762 –0,00311 22w PRNN2_mat –0,0009 –5.8e-20 –0,0067 PRNN2_calc 0,001761 –0,03119 0,0864 PRNN2_train –0,0032 0,0077 –0,0119 23w PRNN2_mat 1,03е-16 –0,2945 –1e-15 PRNN2_calc –0,01114 0,056152 –1,3273 PRNN2_train 0,0154 –0,3963 0,1401 32w PRNN2_mat –2,5е-18 0,0071 2е-17 PRNN2_calc 0,00039 0,0055 0,0871 PRNN2_train 0,0008 0,0104 –0,0082 - PRNN2_mat 1,17е-18 –0,0034 –9,6е-18 PRNN2_calc –0,00427 0,04246 –0,30691 PRNN2_train 0,0003 –0,0285 0,0246 - PRNN2_mat –2,3е-19 0,0007 1,9е-18 PRNN2_calc 0,00668 –0,0794 0,32951 PRNN2_train –0,0006 0,0247 –0,0231 35w PRNN2_mat –0,00077 0,00036 –7,1·10--5 PRNN2_calc –0,00165 0,002795 –0,0013 PRNN2_train –0,0010 0,0020 –0,0015 Рассчитанные значения весовых коэффициентов зависят от режимов работы электропривода и длины последовательности данных, используемых для расчёта. Из сравнения результатов в табл. 1 видно, что значения некоторых весовых коэффициентов ПРНС для моделей, рассчитанных по экспериментальным данным и обученным по этим данным, значительно отличаются от найденных из математической модели ЭП. Различия в результатах можно объяснить следующим образом. Во-первых, ПРНС, полученная из математической модели, рассчитана для всего диапазона изменения параметров (коор- динаты привода и входные воздействия), от которых в объекте существуют нелинейные зависимости параметров. Во-вторых, при расчёте ПРНС этими методами ставятся разные Орловский И.А., Синявский А.А. «Искусственный интеллект» 3’2008 588 7-О математические критерии, исходя из которых строятся эти модели. При расчёте модели ПРНС по математической модели объекта находятся отдельно весовые коэффициенты для описания нелинейностей отдельно каждого элемента матрицы С по критерию мини- мизации среднеквадратичной ошибки для всего диапазона изменения входных сигналов. При этом выход каждого нейрона формируется с учётом всех элементов матрицы С , описывающих его работу (уравнение (4)). При расчёте и обучении модели на ПРНС одновременно находятся все весовые коэффициенты одного нейрона, обеспечивающие минимум среднеквадратичной ошибки его выходного сигнала, для конкретного набора экспериментальных данных. Таким способом определения весовых коэффициентов дости- гается требуемый критерий, при этом влияние отличия одних коэффициентов компенси- руется другими и погрешность определения отдельных нелинейностей может возрастать. На рис. 5а и рис. 5б показаны сигналы отработки координат привода объектом (линией, обозначенной цифрой 1) и обученными ПРНС нулевой (цифра 2) и первой (цифра 3) степеней соответственно. а) б) Рисунок 5 – Отработка входных воздействий объектом и обученными ПРНС нулевой (а) и первой (б) степеней На рис. 6 иллюстрируются ошибки отработки координат привода обученными ПРНС нулевой, первой, второй, третьей степеней, также третьей и пятой степеней с ограничением суммарной степени сигналов в членах полиномов. Для сравнения точности моделей на ПРНС в табл. 2 приведены значения их максимальных ошибок. Относительные ошибки вычислялись от U = 220В, I =350А, ω =53,4с-1. Согласно табл. 2 ошибки моделей ПРНС нулевой, первой и второй степеней уменьшаются с ростом степени ПРНС. Для ПРНС третьей степени в интервале времени используемом для расчёта (0 – 2 с) ошибка снижается, а в интервале со второй по пятую секунды возрастает, что объясняется снижением обобщающих свойств ПРНС высоких степеней. Для ПРНС со структурами с ограничением суммарной степени сигналов точность моделей на ПРНС на проверочном наборе данных с ростом степени ПРНС возрастает (рис. 6д и рис. 6е). При моделировании PRNN5 (без ограничения суммарных степеней) модель являлась Расчет и обучение моделей нелинейных электромеханических объектов… «Штучний інтелект» 3’2008 589 7-О не устойчивой. При этом число весовых коэффициентов уменьшалось с 37 (для PRNN3) до 31 (PRNN3c) и – с 67 (для PRNN5) до 52 (PRNN5). Для обучения использовалась достаточно большая длина (4000) обучающего набора, что позволило обучиться ПРНС с высокой точностью за одну или несколько эпох. Это свойство может быть использовано для осуществления обучения в реальном времени. а) PRNN0 б) PRNN1 в) PRNN2 г) PRNN3 д) PRNN3c е) PRNN5c Рисунок 6 – Сигналы ошибок обученных ПРНС Орловский И.А., Синявский А.А. «Искусственный интеллект» 3’2008 590 7-О Таблица 2 – Значения максимальных ошибок ПРНС ПРНС Интервал времени Максимальные ошибки в % U I ω PRNN0_train 0 – 2 с 1,8 40 50,6 PRNN0_train 2 – 5 с 5,9 42,3 65,5 PRNN1_train 0 – 2 с 0,68 25,1 50,6 PRNN1_train 2 – 5 с 0,68 27,1 71,2 PRNN2_mat 0 – 2 с 0,3 23,7 25,4 PRNN2_mat 2 – 5 с 0,30 20,1 27,6 PRNN2_calc 0 – 2 с 0,05 12,3 11,9 PRNN2_calc 2 – 5 с 0,18 15,6 15,6 PRNN2_train 0 – 2 с 0,045 14,3 11,4 PRNN2_train 2 – 5 с 0,045 13,1 15,9 PRNN3_mat 0 – 2 с 0,15 24,6 14,9 PRNN3_mat 2 – 5 с 0,15 15,4 19,4 PRNN3_calc 0 – 2 с 0.005 6,42 2,24 PRNN3_calc 2 – 5 с 0,005 17,9 27,6 PRNN3_train 0 – 2 с 0,0045 0,86 0,94 PRNN3_train 2 – 5 с 0,0045 26,9 46,8 PRNN3с_calc 0 – 2 с 0.005 6,42 1,94 PRNN3с_calc 2 – 5 с 0,005 4,74 5,22 PRNN3с_train 0 – 2 с 0,0055 1,43 1,87 PRNN3с_train 2 – 5 с 0,0055 8,86 12,2 PRNN5с_train 0 – 2 с 0,0036 0,57 0,84 PRNN5с_train 2 – 5 с 0,0036 3,14 5,88 Выводы 1. Рассчитанные и обученные алгоритмом обратного распространения ошибки ПРНС позволили получить математические модели ТЭП с ДПТПВ с максимальными ошибками, не превышающими 6 % (согласно табл. 2, для ПРНС пятой степени). 2. Сравнение между собой точностей моделей PRNN3 с PRNN3c и PRNN5 с PRNN5c показало целесообразность использования ПРНС с полиномами, имеющими ограничения суммарной степени входных сигналов. С ростом степени ПРНС возрастает точность моделей (согласно табл. 2). Литература 1. Бодянский Е.В., Руденко О.Г. Искусственные нейронные сети: архитектуры, обучение, применения. – Харьков: ТЕЛЕТЕХ, 2004. – 372 с. 2. Хайкин С. Нейронные сети: полный курс: Пер. с англ. – 2-е издание. – М.: Издательский дом «Вильямс», 2006. – 1104 с. 3. Narendra K.S., Parthasarathy K. Identification and control of dynamical systems using neural networks // IEEE Trans. On Neural Networks. – 1990. – 1. – P. 4-26. 4. Орловский И.А., Синявский А.А. Разработка моделей нелинейных электротехнических объектов в виде степенных рекуррентных нейронных сетей // Радіоелектроніка, інформатика, управління. – 2007. – № 1. – С. 128-137. 5. Орловский И.А., Синявский А.А. Расчёт моделей тиристорного электропривода постоянного тока на полиномиальных рекуррентных нейронных сетях // Електротехніка та електроенергетика. – 2008. – № 1. – С. 7-20. 6. Орловский И.А. Идентификация внутренних параметров тиристорного электропривода постоянного тока по его моделям на рекуррентных нейронных сетях // Технічна електродинаміка. – 2007. – № 5. – С. 19-24. 7. Перельмутер В.М., Сидоренко В.А. Системы управления тиристорными электроприводами постоянного тока. – М.: Энергоатомиздат, 1988. – 304 с. Статья поступила в редакцию 10.07.2008.
id nasplib_isofts_kiev_ua-123456789-7144
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 1561-5359
language Russian
last_indexed 2025-12-07T16:54:30Z
publishDate 2008
publisher Інститут проблем штучного інтелекту МОН України та НАН України
record_format dspace
spelling Орловский, И.А.
Синявский, А.А.
2010-03-24T18:03:23Z
2010-03-24T18:03:23Z
2008
Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях / И.А. Орловский, А.А. Синявский // Штучний інтелект. — 2008. — № 3. — С. 579-590. — Бібліогр.: 7 назв. — рос.
1561-5359
https://nasplib.isofts.kiev.ua/handle/123456789/7144
621.313
Разработана методика расчёта и обучения моделей нелинейных объектов на полиномиальных рекуррентных
 нейронных сетях (ПРНС). Получены модели на ПРНС разной степени для тиристорного электропривода с
 двигателем постоянного тока последовательного возбуждения. Выполнены исследования и анализ полученных
 моделей методом имитационного моделирования.
ru
Інститут проблем штучного інтелекту МОН України та НАН України
Нейросетевые и нечеткие системы
Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях
Article
published earlier
spellingShingle Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях
Орловский, И.А.
Синявский, А.А.
Нейросетевые и нечеткие системы
title Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях
title_full Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях
title_fullStr Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях
title_full_unstemmed Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях
title_short Расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях
title_sort расчёт и обучение моделей нелинейных электромеханических объектов на полиномиальных рекуррентных нейронных сетях
topic Нейросетевые и нечеткие системы
topic_facet Нейросетевые и нечеткие системы
url https://nasplib.isofts.kiev.ua/handle/123456789/7144
work_keys_str_mv AT orlovskiiia rasčetiobučeniemodeleinelineinyhélektromehaničeskihobʺektovnapolinomialʹnyhrekurrentnyhneironnyhsetâh
AT sinâvskiiaa rasčetiobučeniemodeleinelineinyhélektromehaničeskihobʺektovnapolinomialʹnyhrekurrentnyhneironnyhsetâh