Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой

Рассматриваются задачи обучения нейронных сетей и нейро-фаззи систем, приводящие к сепарабельным моделям структурам, нелинейным относительно некоторых неизвестных параметров и линейным относительно других неизвестных. Предлагаются новые алгоритмы их обучения, в основе которых нелинейная оптимизацион...

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2015
Автор: Скороход, Б.А.
Формат: Стаття
Мова:Russian
Опубліковано: Інститут кібернетики ім. В.М. Глушкова НАН України 2015
Назва видання:Кибернетика и системный анализ
Теми:
Онлайн доступ:http://dspace.nbuv.gov.ua/handle/123456789/124773
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой / Б.А. Скороход // Кибернетика и системный анализ. — 2015. — Т. 51, № 2. — С. 13-28. — Бібліогр.: 22 назв. — рос.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id irk-123456789-124773
record_format dspace
spelling irk-123456789-1247732017-10-06T03:02:42Z Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой Скороход, Б.А. Кибернетика Рассматриваются задачи обучения нейронных сетей и нейро-фаззи систем, приводящие к сепарабельным моделям структурам, нелинейным относительно некоторых неизвестных параметров и линейным относительно других неизвестных. Предлагаются новые алгоритмы их обучения, в основе которых нелинейная оптимизационная задача, включающая априорную информацию только о нелинейно входящих параметрах. Предполагается, что она может быть получена по обучающему множеству, распределению генерирующей выборки или лингвистической информации. Для решения задачи используются метод Гаусса Ньютона с линеаризацией в окрестности последней оценки, асимптотические представления псевдоинверсий возмущенных матриц и сепарабельная структура моделей. Полученные алгоритмы обладают рядом важных свойств: не требуется подбора начальных значений для линейно входящих параметров, который может приводить к расходимости, но при этом нет необходимости находить частные производные от проекционной матрицы; могут быть использованы в режимах последовательной и пакетной обработки; как частный случай, из них следуют известные алгоритмы, а моделирование показывает, что разработанные алгоритмы могут превосходить известные по точности и скорости сходимости. Розглянуто задачі навчання нейронних мереж і нейро-фаззі систем, що призводять до сепарабельних моделей структур, нелінійних щодо деяких невідомих параметрів і лінійних щодо інших. Запропоновано нові алгоритми їх навчання, в основі яких нелінійна оптимізаційна задача, що включає апріорну інформацію тільки про нелінійні параметри. Робиться припущення, що її можна отримати за навчальною множиною, розподілом генеруючої вибірки або лінгвістичної інформації. Для розв язання задачі використано метод Гаусса Ньютона з лінеаризацією в околі останньої оцінки, асимптотичні зображення псевдоінверсії збурених матриць і сепарабельну структуру моделей. Отримані алгоритми мають низку важливих властивостей: не потрібен підбір початкових значень для лінійних параметрів, який може призвести до розбіжності, при цьому не потрібно знаходити частинні похідні від проекційної матриці; можуть використовуватися в режимах послідовного і пакетного оброблення; як окремий випадок, з них походять відомі алгоритми, а моделювання показує, що розроблені алгоритми можуть перевершувати відомі алгоритми за точністю і швидкістю збіжності. We consider the problem of training of neural networks and neural-fuzzy systems, leading to separable models structures nonlinear in some unknown parameters and linear in the others. New algorithms for their training are proposed, based on the nonlinear optimization problem that includes a priori information only on nonlinear input parameters. It is assumed that it can be obtained on a training set, the distribution of the generating set or linguistic information. To solve the problem, the Gauss–Newton method with linearization in the vicinity of the last estimate, asymptotic representations of the pseudo-inverse of perturbed matrices, and separable structure of the models are used. The obtained algorithms have several important properties: they do not require selection of initial values of the linear parameters, which may lead to divergence, but at the same time it is not necessary to find the partial derivatives of the projection matrix; they can be used in serial mode and batch processing; as a special case, well-known algorithms follow from them, and the simulation shows that the proposed algorithms can surpass them in accuracy and rate of convergence. 2015 Article Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой / Б.А. Скороход // Кибернетика и системный анализ. — 2015. — Т. 51, № 2. — С. 13-28. — Бібліогр.: 22 назв. — рос. 0023-1274 http://dspace.nbuv.gov.ua/handle/123456789/124773 004.032.26 ru Кибернетика и системный анализ Інститут кібернетики ім. В.М. Глушкова НАН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Russian
topic Кибернетика
Кибернетика
spellingShingle Кибернетика
Кибернетика
Скороход, Б.А.
Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой
Кибернетика и системный анализ
description Рассматриваются задачи обучения нейронных сетей и нейро-фаззи систем, приводящие к сепарабельным моделям структурам, нелинейным относительно некоторых неизвестных параметров и линейным относительно других неизвестных. Предлагаются новые алгоритмы их обучения, в основе которых нелинейная оптимизационная задача, включающая априорную информацию только о нелинейно входящих параметрах. Предполагается, что она может быть получена по обучающему множеству, распределению генерирующей выборки или лингвистической информации. Для решения задачи используются метод Гаусса Ньютона с линеаризацией в окрестности последней оценки, асимптотические представления псевдоинверсий возмущенных матриц и сепарабельная структура моделей. Полученные алгоритмы обладают рядом важных свойств: не требуется подбора начальных значений для линейно входящих параметров, который может приводить к расходимости, но при этом нет необходимости находить частные производные от проекционной матрицы; могут быть использованы в режимах последовательной и пакетной обработки; как частный случай, из них следуют известные алгоритмы, а моделирование показывает, что разработанные алгоритмы могут превосходить известные по точности и скорости сходимости.
format Article
author Скороход, Б.А.
author_facet Скороход, Б.А.
author_sort Скороход, Б.А.
title Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой
title_short Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой
title_full Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой
title_fullStr Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой
title_full_unstemmed Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой
title_sort алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой
publisher Інститут кібернетики ім. В.М. Глушкова НАН України
publishDate 2015
topic_facet Кибернетика
url http://dspace.nbuv.gov.ua/handle/123456789/124773
citation_txt Алгоритмы обучения нейронных сетей и нейро-фаззи систем c сепарабельной структурой / Б.А. Скороход // Кибернетика и системный анализ. — 2015. — Т. 51, № 2. — С. 13-28. — Бібліогр.: 22 назв. — рос.
series Кибернетика и системный анализ
work_keys_str_mv AT skorohodba algoritmyobučeniânejronnyhsetejinejrofazzisistemcseparabelʹnojstrukturoj
first_indexed 2023-10-18T20:47:11Z
last_indexed 2023-10-18T20:47:11Z
_version_ 1796151103962742784