Диффузные алгоритмы обучения нейронных сетей прямого распространения
Розглянуто задачу навчання нейронних мереж прямого поширення. Для її розв’язання запропоновано нові алгоритми, що грунтуються на асимптотичному аналізі поведінки розширеного фільтра Калмана і сепарабельній структурі мережі. Лінійнi ваги інтерпретуються як дифузні випадкові величини, що мають нульове...
Збережено в:
Дата: | 2013 |
---|---|
Автор: | |
Формат: | Стаття |
Мова: | Russian |
Опубліковано: |
Інститут кібернетики ім. В.М. Глушкова НАН України
2013
|
Назва видання: | Кибернетика и системный анализ |
Теми: | |
Онлайн доступ: | http://dspace.nbuv.gov.ua/handle/123456789/86230 |
Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
Цитувати: | Диффузные алгоритмы обучения нейронных сетей прямого распространения / Б.А Скороход // Кибернетика и системный анализ. — 2013. — Т. 49, № 3. — С. 14-25. — Бібліогр.: 19 назв. — рос. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraineid |
irk-123456789-86230 |
---|---|
record_format |
dspace |
spelling |
irk-123456789-862302015-09-11T03:01:49Z Диффузные алгоритмы обучения нейронных сетей прямого распространения Скороход, Б.А Кибернетика Розглянуто задачу навчання нейронних мереж прямого поширення. Для її розв’язання запропоновано нові алгоритми, що грунтуються на асимптотичному аналізі поведінки розширеного фільтра Калмана і сепарабельній структурі мережі. Лінійнi ваги інтерпретуються як дифузні випадкові величини, що мають нульове математичне сподівання і матрицю коваріації, пропорційну великому параметру λ. Знайдено асимптотичні зображення при λ→∞ РФК — дифузні алгоритми навчання (ДАН). Показано, що на відміну від їх прототипу РФК з великим, але скінченним λ, їм властива робастність відносно накопичення помилок округлення. Із ДАН при певних спрощуючих припущеннях отримуємо ELM-алгоритм (extreme learning machine). Показано, що ДАН можуть перевершувати ELM-алгоритм за точністю апроксимації. The problem of training feedforward neural networks is considered. To solve it, new algorithms are proposed. They are based on the asymptotic analysis of extended Kalman filter (EKF) and on a separable network structure. Linear weights are interpreted as diffusion random variables with zero expectation and covariance matrix proportional to an arbitrarily large parameter λ. Asymptotic expressions as λ→∞ for the EKF are derived. They are called diffusion learning algorithms (DLA). It is shown that they, unlike their prototype EKF with large yet finite λ are robust with respect to the accumulation of rounding errors and that under certain simplifying assumptions, the ELM (extreme learning machine) algorithm follows from the DLA. A numerical example shows that the accuracy of the DLA may be higher than that of the ELM algorithm. 2013 Article Диффузные алгоритмы обучения нейронных сетей прямого распространения / Б.А Скороход // Кибернетика и системный анализ. — 2013. — Т. 49, № 3. — С. 14-25. — Бібліогр.: 19 назв. — рос. 0023-1274 http://dspace.nbuv.gov.ua/handle/123456789/86230 004.032.26 ru Кибернетика и системный анализ Інститут кібернетики ім. В.М. Глушкова НАН України |
institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
collection |
DSpace DC |
language |
Russian |
topic |
Кибернетика Кибернетика |
spellingShingle |
Кибернетика Кибернетика Скороход, Б.А Диффузные алгоритмы обучения нейронных сетей прямого распространения Кибернетика и системный анализ |
description |
Розглянуто задачу навчання нейронних мереж прямого поширення. Для її розв’язання запропоновано нові алгоритми, що грунтуються на асимптотичному аналізі поведінки розширеного фільтра Калмана і сепарабельній структурі мережі. Лінійнi ваги інтерпретуються як дифузні випадкові величини, що мають нульове математичне сподівання і матрицю коваріації, пропорційну великому параметру λ. Знайдено асимптотичні зображення при λ→∞ РФК — дифузні алгоритми навчання (ДАН). Показано, що на відміну від їх прототипу РФК з великим, але скінченним λ, їм властива робастність відносно накопичення помилок округлення. Із ДАН при певних спрощуючих припущеннях отримуємо ELM-алгоритм (extreme learning machine). Показано, що ДАН можуть перевершувати ELM-алгоритм за точністю апроксимації. |
format |
Article |
author |
Скороход, Б.А |
author_facet |
Скороход, Б.А |
author_sort |
Скороход, Б.А |
title |
Диффузные алгоритмы обучения нейронных сетей прямого распространения |
title_short |
Диффузные алгоритмы обучения нейронных сетей прямого распространения |
title_full |
Диффузные алгоритмы обучения нейронных сетей прямого распространения |
title_fullStr |
Диффузные алгоритмы обучения нейронных сетей прямого распространения |
title_full_unstemmed |
Диффузные алгоритмы обучения нейронных сетей прямого распространения |
title_sort |
диффузные алгоритмы обучения нейронных сетей прямого распространения |
publisher |
Інститут кібернетики ім. В.М. Глушкова НАН України |
publishDate |
2013 |
topic_facet |
Кибернетика |
url |
http://dspace.nbuv.gov.ua/handle/123456789/86230 |
citation_txt |
Диффузные алгоритмы обучения нейронных сетей прямого распространения / Б.А Скороход // Кибернетика и системный анализ. — 2013. — Т. 49, № 3. — С. 14-25. — Бібліогр.: 19 назв. — рос. |
series |
Кибернетика и системный анализ |
work_keys_str_mv |
AT skorohodba diffuznyealgoritmyobučeniânejronnyhsetejprâmogorasprostraneniâ |
first_indexed |
2023-10-18T19:32:56Z |
last_indexed |
2023-10-18T19:32:56Z |
_version_ |
1796147261645783040 |