Scalability of Parallel Batch Pattern Neural Network Training Algorithm

The development of parallel batch pattern back propagation training algorithm of multilayer perceptron and its scalability research on general-purpose parallel computer are presented in this paper. The model of multilayer perceptron and batch pattern training algorithm are theoretically described....

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2009
Автор: Turchenko, V.
Формат: Стаття
Мова:English
Опубліковано: Інститут проблем штучного інтелекту МОН України та НАН України 2009
Теми:
Онлайн доступ:https://nasplib.isofts.kiev.ua/handle/123456789/7935
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Scalability of Parallel Batch Pattern Neural Network Training Algorithm / V. Turchenko // Штучний інтелект. — 2009. — № 2. — С. 144-150. — Бібліогр.: 12 назв. — англ.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id nasplib_isofts_kiev_ua-123456789-7935
record_format dspace
spelling Turchenko, V.
2010-04-22T14:01:02Z
2010-04-22T14:01:02Z
2009
Scalability of Parallel Batch Pattern Neural Network Training Algorithm / V. Turchenko // Штучний інтелект. — 2009. — № 2. — С. 144-150. — Бібліогр.: 12 назв. — англ.
1561-5359
https://nasplib.isofts.kiev.ua/handle/123456789/7935
681.3
The development of parallel batch pattern back propagation training algorithm of multilayer perceptron and its scalability research on general-purpose parallel computer are presented in this paper. The model of multilayer perceptron and batch pattern training algorithm are theoretically described. The algorithmic description of the parallel batch pattern training method is presented. The scalability research of the developed parallel algorithm is fulfilled at progressive increasing the dimension of the parallelized problem on general-purpose parallel computer NEC TX-7.
Разработка параллельного группового алгоритма обучения обратного распространения ошибки многослойного персептрона и исследование его масштабированности на параллельном компьютере общего назначения представлены в этой статье. Модель многослойного персептрона и групповой алгоритм его обучения описаны формализованным образом. Параллельный групповой алгоритм обучения представлен в алгоритмическом виде. Исследование масштабированности разработанного параллельного алгоритма осуществлено для пропорционально увеличивающегося размера задачи параллелизации на параллельном компьютере общего назначения NEC TX-7.
Розробка паралельного групового алгоритму навчання зворотного поширення помилки багатошарового персептрону та дослідження його масштабованості на паралельному комп’ютері загального призначення розглянуті в цій статті. Модель багатошарового персептрону та груповий алгоритм його навчання описані формалізованим чином. Паралельний груповий алгоритм навчання представлено в алгоритмічному вигляді. Дослідження масштабованості розробленого паралельного алгоритму здійснено для пропорційно збільшуваного розміру задачі паралелізації на паралельному комп’ютері загального призначення NEC TX-7.
en
Інститут проблем штучного інтелекту МОН України та НАН України
Нейросетевые и нечеткие системы
Scalability of Parallel Batch Pattern Neural Network Training Algorithm
Масштабированность параллельного группового алгоритма обучения нейронной сети
Масштабованість паралельного групового алгоритму навчання нейронної мережі
Article
published earlier
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
title Scalability of Parallel Batch Pattern Neural Network Training Algorithm
spellingShingle Scalability of Parallel Batch Pattern Neural Network Training Algorithm
Turchenko, V.
Нейросетевые и нечеткие системы
title_short Scalability of Parallel Batch Pattern Neural Network Training Algorithm
title_full Scalability of Parallel Batch Pattern Neural Network Training Algorithm
title_fullStr Scalability of Parallel Batch Pattern Neural Network Training Algorithm
title_full_unstemmed Scalability of Parallel Batch Pattern Neural Network Training Algorithm
title_sort scalability of parallel batch pattern neural network training algorithm
author Turchenko, V.
author_facet Turchenko, V.
topic Нейросетевые и нечеткие системы
topic_facet Нейросетевые и нечеткие системы
publishDate 2009
language English
publisher Інститут проблем штучного інтелекту МОН України та НАН України
format Article
title_alt Масштабированность параллельного группового алгоритма обучения нейронной сети
Масштабованість паралельного групового алгоритму навчання нейронної мережі
description The development of parallel batch pattern back propagation training algorithm of multilayer perceptron and its scalability research on general-purpose parallel computer are presented in this paper. The model of multilayer perceptron and batch pattern training algorithm are theoretically described. The algorithmic description of the parallel batch pattern training method is presented. The scalability research of the developed parallel algorithm is fulfilled at progressive increasing the dimension of the parallelized problem on general-purpose parallel computer NEC TX-7. Разработка параллельного группового алгоритма обучения обратного распространения ошибки многослойного персептрона и исследование его масштабированности на параллельном компьютере общего назначения представлены в этой статье. Модель многослойного персептрона и групповой алгоритм его обучения описаны формализованным образом. Параллельный групповой алгоритм обучения представлен в алгоритмическом виде. Исследование масштабированности разработанного параллельного алгоритма осуществлено для пропорционально увеличивающегося размера задачи параллелизации на параллельном компьютере общего назначения NEC TX-7. Розробка паралельного групового алгоритму навчання зворотного поширення помилки багатошарового персептрону та дослідження його масштабованості на паралельному комп’ютері загального призначення розглянуті в цій статті. Модель багатошарового персептрону та груповий алгоритм його навчання описані формалізованим чином. Паралельний груповий алгоритм навчання представлено в алгоритмічному вигляді. Дослідження масштабованості розробленого паралельного алгоритму здійснено для пропорційно збільшуваного розміру задачі паралелізації на паралельному комп’ютері загального призначення NEC TX-7.
issn 1561-5359
url https://nasplib.isofts.kiev.ua/handle/123456789/7935
citation_txt Scalability of Parallel Batch Pattern Neural Network Training Algorithm / V. Turchenko // Штучний інтелект. — 2009. — № 2. — С. 144-150. — Бібліогр.: 12 назв. — англ.
work_keys_str_mv AT turchenkov scalabilityofparallelbatchpatternneuralnetworktrainingalgorithm
AT turchenkov masštabirovannostʹparallelʹnogogruppovogoalgoritmaobučeniâneironnoiseti
AT turchenkov masštabovanístʹparalelʹnogogrupovogoalgoritmunavčannâneironnoímereží
first_indexed 2025-12-07T18:28:06Z
last_indexed 2025-12-07T18:28:06Z
_version_ 1850875142662520832