Analysis of systems of fuzzy logic to approximate fuzzy functions

Three models of fuzzy inference are considered: fuzzy pattern, fuzzy neural networks ANFIS and NEFPROX. Shown that the network ANFIS provides high quality results approximation, but requires training large number of parameters and difficult to interpret the results. Network NEFPROX convenient when i...

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2015
Автори: Schegelski, Т.S., Provotar, O.O., Provotar, O.I.
Формат: Стаття
Мова:Ukrainian
Опубліковано: PROBLEMS IN PROGRAMMING 2015
Теми:
Онлайн доступ:https://pp.isofts.kiev.ua/index.php/ojs1/article/view/106
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Problems in programming
Завантажити файл: Pdf

Репозитарії

Problems in programming
id pp_isofts_kiev_ua-article-106
record_format ojs
resource_txt_mv ppisoftskievua/62/24879853500968177df4c466daaa9062.pdf
spelling pp_isofts_kiev_ua-article-1062018-07-30T10:22:44Z Analysis of systems of fuzzy logic to approximate fuzzy functions Анализ систем нечеткой логики для аппроксимации нечетких функций Аналіз систем нечіткої логіки для апроксимації нечітких функцій Schegelski, Т.S. Provotar, O.O. Provotar, O.I. Fuzzy functions Нечеткие функции Нечіткі функції Three models of fuzzy inference are considered: fuzzy pattern, fuzzy neural networks ANFIS and NEFPROX. Shown that the network ANFIS provides high quality results approximation, but requires training large number of parameters and difficult to interpret the results. Network NEFPROX convenient when interpreting results. Fuzzy pattern provides low quality of approximation and the interpretation of results difficult. Рассматриваются три модели нечеткого логического вывода: нечеткий шаблон, нечеткие нейронные сети ANFIS и NEFPROX. Показано, что сеть ANFIS дает качественный результат ап- проксимации, но требует обучения большого количества параметров и сложная для интерпретации результатов. Сеть NEFPROX удобная при интерпретации результатов. Нечеткий шаблон дает низкое качество аппроксимации и сложен при интерпретации результатов. Розглядаються три моделі нечіткого логічного виведення: нечіткий шаблон, нечіткі нейронні мережі ANFIS і NEFPROX. Показано, що мережа ANFIS дає якісний результат апроксимації, але вимагає навчання великої кількості параметрів та складна для інтерпретації результатів. Мережа NEFPROX зручна для інтерпретації результатів. Модель на основі нечіткого шаблону дає низьку якість апроксимації та складна для інтерпретації результатів. PROBLEMS IN PROGRAMMING ПРОБЛЕМЫ ПРОГРАММИРОВАНИЯ ПРОБЛЕМИ ПРОГРАМУВАННЯ 2015-09-22 Article Article application/pdf https://pp.isofts.kiev.ua/index.php/ojs1/article/view/106 PROBLEMS IN PROGRAMMING; No 4 (2012) ПРОБЛЕМЫ ПРОГРАММИРОВАНИЯ; No 4 (2012) ПРОБЛЕМИ ПРОГРАМУВАННЯ; No 4 (2012) 1727-4907 uk https://pp.isofts.kiev.ua/index.php/ojs1/article/view/106/106 Copyright (c) 2015 ПРОБЛЕМИ ПРОГРАМУВАННЯ
institution Problems in programming
baseUrl_str https://pp.isofts.kiev.ua/index.php/ojs1/oai
datestamp_date 2018-07-30T10:22:44Z
collection OJS
language Ukrainian
topic Fuzzy functions

spellingShingle Fuzzy functions

Schegelski, Т.S.
Provotar, O.O.
Provotar, O.I.
Analysis of systems of fuzzy logic to approximate fuzzy functions
topic_facet Fuzzy functions

Нечеткие функции

Нечіткі функції

format Article
author Schegelski, Т.S.
Provotar, O.O.
Provotar, O.I.
author_facet Schegelski, Т.S.
Provotar, O.O.
Provotar, O.I.
author_sort Schegelski, Т.S.
title Analysis of systems of fuzzy logic to approximate fuzzy functions
title_short Analysis of systems of fuzzy logic to approximate fuzzy functions
title_full Analysis of systems of fuzzy logic to approximate fuzzy functions
title_fullStr Analysis of systems of fuzzy logic to approximate fuzzy functions
title_full_unstemmed Analysis of systems of fuzzy logic to approximate fuzzy functions
title_sort analysis of systems of fuzzy logic to approximate fuzzy functions
title_alt Анализ систем нечеткой логики для аппроксимации нечетких функций
Аналіз систем нечіткої логіки для апроксимації нечітких функцій
description Three models of fuzzy inference are considered: fuzzy pattern, fuzzy neural networks ANFIS and NEFPROX. Shown that the network ANFIS provides high quality results approximation, but requires training large number of parameters and difficult to interpret the results. Network NEFPROX convenient when interpreting results. Fuzzy pattern provides low quality of approximation and the interpretation of results difficult.
publisher PROBLEMS IN PROGRAMMING
publishDate 2015
url https://pp.isofts.kiev.ua/index.php/ojs1/article/view/106
work_keys_str_mv AT schegelskits analysisofsystemsoffuzzylogictoapproximatefuzzyfunctions
AT provotaroo analysisofsystemsoffuzzylogictoapproximatefuzzyfunctions
AT provotaroi analysisofsystemsoffuzzylogictoapproximatefuzzyfunctions
AT schegelskits analizsistemnečetkojlogikidlâapproksimaciinečetkihfunkcij
AT provotaroo analizsistemnečetkojlogikidlâapproksimaciinečetkihfunkcij
AT provotaroi analizsistemnečetkojlogikidlâapproksimaciinečetkihfunkcij
AT schegelskits analízsistemnečítkoílogíkidlâaproksimacíínečítkihfunkcíj
AT provotaroo analízsistemnečítkoílogíkidlâaproksimacíínečítkihfunkcíj
AT provotaroi analízsistemnečítkoílogíkidlâaproksimacíínečítkihfunkcíj
first_indexed 2025-07-17T09:48:41Z
last_indexed 2025-07-17T09:48:41Z
_version_ 1850410472784789504
fulltext Теоретичні та методологічні основи програмування © Т.С. Щегельський, О.О. Провотар, О.І. Провотар, 2012 ISSN 1727-4907. Проблеми програмування. 2012. № 4 43  УДК 519.68 Т.С. Щегельський, О.О. Провотар, О.І. Провотар АНАЛІЗ СИСТЕМ НЕЧІТКОЇ ЛОГІКИ ДЛЯ АПРОКСИМАЦІЇ НЕЧІТКИХ ФУНКЦІЙ Розглядаються три моделі нечіткого логічного виведення: нечіткий шаблон, нечіткі нейронні мережі ANFIS і NEFPROX. Показано, що мережа ANFIS дає якісний результат апроксимації, але вимагає на- вчання великої кількості параметрів та складна для інтерпретації результатів. Мережа NEFPROX зруч- на для інтерпретації результатів. Модель на основі нечіткого шаблону дає низьку якість апроксимації та складна для інтерпретації результатів. Вступ Більшість сучасних методів керу- вання припускають наявність точної мате- матичної моделі процесу (або системи). Як правило, таку модель важко або надто до- рого отримати. З іншого боку, нечітка ло- гіка може бути зручним інструментом для вирішення проблем побудови моделей різ- них процесів, якщо немає необхідності аналізувати об’єкт керування з високим ступенем деталізації. Такі моделі є набли- женими, але вони можуть бути досить швидко та легко отримані. Знання в таких моделях виражають природу процесу (чи системи) у лінгвістичній інтерпретації. Це дає можливість аналізувати систему без необхідності отримання стратегії керу- вання. У роботі проаналізовано можли- вість ефективного застосування різних моделей для апроксимації нечітких функ- цій. Невелика кількість таких досліджень та необхідність всебічного аналізу нечіт- ких систем зумовлює актуальність дослі- дження. Нечіткі системи. Нечітка модель процесу зазвичай конструюється на базі знань експерта про процес (чи систему). Також часто враховуються результати екс- периментів, проведених над об’єктом ке- рування. Досвід експерта, як правило, ви- користовується для визначення структу- ри та початкових налаштувань – змінних, функцій приналежності та нечітких пра- вил. Після цього система налаштовується так, щоб відповідати експериментальним даним. Існує два основних способи налаш- тування нечітких систем: додавання та видалення правил і корегування парамет- рів функцій приналежності. Перший використовується для наближеного налаш- тування, другий – для точного налашту- вання моделі. В деяких моделях пропонується ви- користовувати ваги правил (вага правила може інтерпретуватися як рівень його ва- жливості) для налаштування нечіткої мо- делі. Нечіткий шаблон моделювання, за- пропонований Ягером та Файлевом в [1], використовує цей підхід. Для визначення пар вхідних-вихід- них змінних та їх нечіткого розподілу ви- користовуються знання людини-експерта. Правильність елементарних правил, які були визначені цим розподілом, переві- ряється експериментальними даними та виражається вагами правил. Якість системи (більш точне відо- браження природи процесу) у значній мірі залежить від правильності вибору даних для налаштування ваг правил. Для порівняння вибрано три нечіткі моделі: нечіткі шаблони моделювання, нечітка нейронна мережа ANFIS та мережа NEFPROX. Нечіткі шаблони моделювання. Нечіткі шаблони моделювання базуються на нечіткому методі моделювання, запро- понованому Ягером та Файлевим в [1], який було розширено до моделі з багатьма входами та виходами [2]. Теоретичні та методологічні основи програмування Задані пари зчитаних даних ( )1 2 1 2, ,..., , , ,...,k k k k k k s tx x x y y y , де – значення входів k s kk xxx ,...,, 21 1 2, , ... ,k k k sU U U у момент ( )( )1,k k K= , – значення виходів 1 2, , ... ,k k k ty y y 1 2, ,...,k k k sV V V у відповідні моменти часу, відповідає елементарному правилу: якщо це 1U 1 1 iB AND … AND sU це s s iB то це 1 kV 1 1 jD AND … AND k sV   це t t jD , якщо всі ваги ( ) ( )1 1 1 1 1 ,...., s s k s s i i i i s kB x Bτ τ= = x ) , ( ) ( )( 1 11, ,..., 1,r si s i s= = та ( ) ( )1 1 1 1 1 ,...., , t t k t t k j j j jD x D xγ γ= = t ) ( ) ( )( 1 11, ,..., 1,r sj t j t= = не нульові. Ступінь узгодження визнача- ється як: ( )1 2 1 2... ...s ti i i j j j kδ = 1 2 1 2 1 2 1 2... ... . s t s t i i i j j jτ τ τ γ γ γ= ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ (1) Одне читання вхідних-вихідних даних може мати не нульовий рівень узгодження для більш ніж одного елемен- тарного правила. Це враховується нормалі- зованим рівнем узгодження ( )1 2 1 2... ...s ti i i j j j kυ , який отримується норма- лізацією рівня узгодженості (1) по відно- шенню до загального рівня узгодженості k-го читання даних з елементарними пра- вилами ( )1 2 1 2... ...s ti i i j j j kυ = ( ) ( ) 1 2 1 2 1 1 1 2 1 2 1 1 ... ... ... ... 1 1 1 1 ... ... s t s t s t s t i i i j j j s ts t i i i j j j i i j j k k δ δ = = = = = ∑ ∑ ∑ ∑ . (2) Наступним кроком є обрахунок рів- ня узгодження елементарних правил по відношенню до всього вхідного набору даних ( ) 1 2 1 2 1 2 1 2... ... ... ... 1 s t s t K i i i j j j i i i j j j k kυ υ = = ∑ . (3) Повний нормалізований рівень уз- годження -го набору правил, який складається з правил, еквівалентних гіпо- тезам, визначається за формулою: riii ...21 1 2 1 2 1 2 1 2 1 2 ... ... ... 1 1 1 ... t s s t tt t i i i i i i j j j j j j υ υ = = = = ∑ ∑ ∑ t . (4) Результатом моделювання є база правил ( )1 1 1 1,..., , ,..., s t s t i i j jR B B B D , яка міс- тить 1 2 1 2... ...s yi i i j j j⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ правил з ва- гами 1 2 1 2 1 2 1 2 1 2 ... ... ... ... ... s t s t s i i i j j j i i i j j j i i i p υ υ = . (5) Нечіткі нейронні системи. Ней- ронні мережі використовуються для задач розпізнавання образів, але незручні для з'ясування питання про те, як вони таке розпізнавання здійснюють. Вони можуть автоматично набувати знання, але процес їх навчання часто відбувається досить по- вільно. Побудова нейронних мереж є до- сить простим процесом, але аналіз навче- ної мережі дуже складний (зазвичай на- вчена мережа – «чорний ящик» для корис- тувача). При цьому будь-яку апріорну ін- формацію (знання експерта) для приско- рення процесу її навчання в нейронну ме- режу ввести неможливо. Системи з нечіткою логікою, на- впаки, зручні для пояснення отримуваних за їх допомогою висновків, але не мо- жуть автоматично набувати знання для використання їх в механізмах висновків. Необхідність розбиття універсальних мно- жин на окремі області, як правило, обме- жує кількість вхідних змінних у таких сис- темах. Системи з нечіткою логікою і шту- чні нейронні мережі еквівалентні один одному, проте, у кожному конкретному випадку в них є свої переваги та недо- ліки. Це лягло в основу апарата гібридних мереж, у яких висновки робляться на ос- нові апарата нечіткої логіки, а відповідні 44 Теоретичні та методологічні основи програмування функції приналежності підлаштовуються з використанням алгоритмів навчання ней- ронних мереж, наприклад, алгоритму зво- ротного поширення помилки. Такі системи не тільки використовують апріорну інфор- мацію, але можуть набувати нові знання і для користувача є логічно прозорими. Нечітка нейронна мережа ANFIS (Adaptive Neuro-Fuzzy Inference System), запропонована Єнгом, визначається дифе- ренційовними операторами механізму виведення (множення та додавання), ди- ференційовними функціями приналежнос- ті (Гауссовими) та дефузифікацією ме- тодом зваженого середнього. Дана мережа відображає механізм нечіткого виведення Тсукамото [5]. Вона може бути представ- лена спеціальною п’ятишаровою мережею прямого поширення. Оскільки мережа ANFIS використовує тільки диференційо- вні функції, для її навчання можна викори- стовувати стандартні методи, наприклад, комбінацію алгоритму зворотного поши- рення похибки (метод градієнтного спус- ку) та методу найменших квадратів [6]. Розглянемо, наприклад, систему, що має наступну базу знань: якщо х це і х це і х це ,1 1L 2 2L 3 3L то y це H, якщо х це H і х це H і х це L ,1 1 2 2 3 3 то y це M, якщо х це H і х це H і х це H ,1 1 2 2 3 3 то y це S, де x , x , x – вхідні змінні, y – вихід систе-1 2 3 ми, L , L , L , H , H , H , H, M, S – деякі 1 2 3 1 2 3 нечіткі множини з функціями приналеж- ності сигмоїдного типу: ( ) 1( ) 1 j j j b t c L t e − = + , ( ) 1( ) 1 j j j b t c H t e− − = + , j = 1,2,3, ( )4 4 5 1( ) 1 b t c c H t e− − + = + , (6) ( )4 4 1( ) 1 b t c M t e− − = + , ( )4 4 1( ) 1 b t c S t e − = + . Для визначення вихідної змінної використовується алгоритм виведення Тсукамото: 1) підраховуються значення іс- тинності передумов для кожного правила: ( ) ( ) ( )1 1 1 2 2 3 3L a L a L aα = ∧ ∧ , ( ) ( ) (2 1 1 2 2 3 3H a H a L aα = ∧ ∧ ) , (7) ( ) ( ) ( )3 1 1 2 2 3 3H a H a H aα = ∧ ∧ , де в цьому випадку , , – поточні значення входів системи; 1a 2a 3a 2) для кожного правила визна- чаються часткові виходи: ( )1 1 1 1 4 5 4 1 11 lnz B c c b αα α − − = = + + , ( )1 2 2 2 4 4 2 11 lnz B c b αα α − − = = + , (8) 1 3 3 3 4 4 3 11( ) lnz B c b α α α − − = = + ; 3) знаходиться загальний вихід системи: 1 1 2 2 3 3 0 1 2 3 z zz zα α α α α α + + = + + . (9) Гібридна нейронна мережа, яка ві- дображає наведений механізм виведення, показана на рис. 1. Рис. 1. Структура мережі ANFIS Ця мережа може бути описана та- ким чином: Шар 1. Виходи вузлів цього шару представляють собою значення функцій приналежності при конкретних (заданих) значеннях входів. 45 Теоретичні та методологічні основи програмування Шар 2. Виходами нейронів цього шару є ступені істинності передумов кожного правила бази знань системи, які обчислю- ють за формулами (7). Всі нейрони цього шару позначені буквою Т. Це означає, що вони можуть реалізовувати довільну t-норму. Шар 3. Нейрони цього шару (позначені буквою N) обчислюють величини: 321 1 1 ααα αβ ++ = , 321 2 2 ααα αβ ++ = , 321 3 3 ααα αβ ++ = . (10) Шар 4. Нейрони цього шару виконують операції: ( )1 1 1 1 1z H aβ β −= , ( )1 2 2 2 2z M aβ β −= , ( )1 3 3 3 3z S aβ β −= . (11) Шар 5. Єдиний нейрон цього шару об- раховує вихід мережі: 0 1 1 2 2 3 3z z z zβ β β= + + . (12) Коригування параметрів системи відбувається за правилом градієнтного спуску. Так, наприклад, налаштування ко- ефіцієнтів b4, c4 і с5 відбувається за форму- лами: 4 4 4 kEb b b η ∂ = − = ∂ 1 2 3 4 2 1 2 34 ,k a a ab a a ab η δ + − − + +   4 4 4 kEc c c η ∂ = − ∂ = (13) kk c aaa aaac ηδηδ += ++ ++ += 4 321 321 4 , 1 5 5 5 4 1 2 ,k k E ac c c b a a η ηδ ∂ = − = + ∂ + 3a+ де . k k k y oδ = − Відповідні вирази можуть бути отримані й для решти коефіцієнтів. Мережа NEFPROX базується на нечіткому перцептроні [3]. Елементи ме- режі використовують -норми або -норми замість активаційних функцій, які зазвичай використовуються в нейрон- них мережах. Перший шар представляє вхідні змінні, другий (прихований) – нечі- ткі правила, третій – вихідні змінні. Нечіт- кі множини кодуються як колекції ваг t s ( ) ( ), / ,W x R W R y . Ваги, які відповідають тим самим функціям приналежності, ма- ють однакові значення. Нечіткі системи мають мало обме- жень – практично можуть викорис- товуватись усі - та -норми та всі типи функцій приналежності, також середнє значення в якості дифузифікатора. Систе- ма може бути ініціалізована апріорними знаннями експерта. Метод градієнтного спуску не може бути використаний, s t оскільки - та -норми не є диферен-t s ційованими функціями. Замість нього ви- користовують просту евристичну проце- дуру, яка складається із двох кроків: навчання нечітких правил (навчання структури мережі) та навчання нечітких множин (навчання параметрів), (рис. 2). Рис. 2. Структура мережі NEFPROX Ітераційний алгоритм навчання правил мережі створює базу правил (починаючи з порожньої множини пра- вил, якщо потрібно) послідовним дода- ванням нових правил. Для кожної на- вчальної пари нечітка множина, яка забезпечує найвищий ступінь приналеж- ності, використовується для конструю- вання нового правила. Підчас другої ста- дії база правил оптимізується шляхом 46 Теоретичні та методологічні основи програмування зміни наслідків для відповідних функцій приналежності, якщо це потрібно. Результатом навчання параметрів мережі є корегування функцій прина- лежності. На основі роботи правил, алго- ритм визначає необхідність зменшення чи збільшення ступеня активації правила і визначає нечітку множину, яка відповідає за активацію даного правила. Система. Для порівняння та оцінки моделей нечіткої логіки було використано просту нечітку систему з одним входом та одним виходом. Вхідна змінна [ ]x 0, 10= та вихідна змінна [ ]y –5, 5= розділені відповідно на 6 та 5 функцій приналежності mfi. На рис. 3 показано ці функції приналежності, нечіткі пра- вила та відношення входом та виходом результуючої системи. Рис. 3. Нечітка система Функції приналежності та базу пра- вил вибрано таким чином, щоб побудувати функцію, яку б було важко апроксимувати. Порівняння та оцінка моделей. Першою була змодельована система мето- дом Янгера-Файлева із використан-ням: 1) симетричних трикутних функцій приналежності зі степенем перекривання 0.5; 2) нечіткого поділу оригінальної сис- теми. Результуючі моделі (правила, ваги яких були менші за 0.1, не вносились в таблиці для більшої наочності результату) приведені в табл. 1 та 2 відповідно. Таблиця 1 Вхід/ Вихід f1 f2 f3 f4 f5 mf1 .414 .568 mf2 .248 .562 .149 mf3 .111 .241 .309 .437 mf4 .331 .669 mf5 .124 .789 mf6 .487 .513 Таблиця 2 Вхід/ Вихід f1 f2 f3 f4 f5 mf1 .243 .377 mf2 .603 .658 mf3 .717 .241 mf4 .103 .330 .520 mf5 .140 .342 .516 mf6 .644 .290 Результат роботи моделі на вхід- ному проміжку [0, 10] у порівнянні з оригінальною системою показаний на рис. 4. Система на основі цієї моделі в обох випадках демонструє низьку якість апроксимації. Ще одним недоліком мо- делі є необхідність застосування ваг для кожного нечіткого правила. Це порушує семантику нечіткої системи та робить її інтерпретацію досить складною. При аналізі моделі бралися до уваги тільки правила з великими вагами. Правила з малими вагами можуть призводити до хибних висновків. 47 Теоретичні та методологічні основи програмування Рис. 4. Моделювання методом Янгера- Файлева Для мережі ANIFS визначено шість апріорних функцій приналежності. Для цього використано метод субтрактивної кластеризації (рис. 5). Рис. 5. Апріорні функції приналежності мережі ANFIS Результат навчання мережі показа- ний на рис. 6. Рис. 6. Моделювання за допомогою мережі ANFIS Мережа ANIFS у поєднанні з суб- трактивною кластеризацією дає високу якість апроксимації. Це можна пояснити великою кількістю параметрів, що підля- гають налаштуванню та аналітичним пра- вилам навчання. Інтерпретація правил Суґено є досить складною, тому викорис- товувати цю мережу доцільно тоді, коли якість роботи більш важлива, ніж необхід- ність розуміння природи процесу. Результат роботи мережі NEFPROX показано на рис. 7. Аналогічно до нечітко- го шаблону, цей метод не дозволяє відтво- рити оригінальну модель, але в даному випадку немає потреби використовувати додаткові ваги та відклик набагато ближ- чий до оригінальної системи. Рис. 7. Моделювання за допомогою мере- жі NEFPROX Аналогічно до ANFIS, якість роботи мережі NEFPROX сильно залежить від кількості функцій приналежності, які ма- ють бути визначені до початку навчання. Збільшення кількості функцій приналеж- ності зумовлює кращий результат. Висновки Розглянуті моделі нечіткого логіч- ного виведення по-різному виконують за- вдання апроксимації нечітких функцій. Модель ANFIS дає якісний результат ап- роксимації, але потребує навчання великої кількості параметрів та складна при інтер- претації. Модель NEFPROX не повністю відтворює оригінальну модель, але зручна для інтерпретації результатів. 48 Теоретичні та методологічні основи програмування 1. Yager R. and Filev D.. Essentials of Fuzzy Modeling and Control // John Wiley and Sons, New York, 1994. 2. Riid A. and Rüstern E. Fuzzy modeling and control of fed-batch fermentation // Proc. 9th Int. Symp. on System-Modelling-Control, Zakopane, Poland, 1998. 3. Nauck D., Klawonn F. and Kruse R.. Foundations of Neuro-fuzzy Systems // John Wiley and Sons, New York, 1997. 4. Круглов В.В. Искусственные нейронные сети // Теория и практика. – М. : Горячая линия – Телеком, 2002. – 382 с. 5. Осовский С. Нейронные сети для обра- ботки информации: пер. с польск. И.Д. Ру- динского. – М. : Финансы и статистика, 2002. – 344 с. 6. Рудковская Д., Пилипинский М., Рутков- ский Л. Нейронные сети, генетические ал- горитмы и нечеткие системы : пер. с польск. И.Д. Рудинского. – М.: Горяч. ли- ния – Телеком, 2006. – 452 с. Одержано 21.10.2011 Про авторів: Щегельський Тарас Сергійович, аспірант, Провотар Ольга Олександрівна, аспірантка, Провотар Олександр Іванович, доктор фізико-математичних наук, професор. Місце роботи авторів: Волинський національний університет імені Лесі Українки Тел. 066 627 3357, e-mail: shchegelskij@gmail.com Інститут кібернетики імені В.М. Глушкова НАН України Тел. 063 034 2230, e-mail: aprowata@unicyb.kiev.ua Київський національний університет імені Тараса Шевченка Університет міста Жешув (Польща) Тел. 050 444 1735, e-mail: aprowata@unicyb.kiev.ua 49 mailto:shchegelskij@gmail.com mailto:aprowata@unicyb.kiev.ua mailto:aprowata@unicyb.kiev.ua