Scalability of Parallel Batch Pattern Neural Network Training Algorithm
The development of parallel batch pattern back propagation training algorithm of multilayer perceptron and its scalability research on general-purpose parallel computer are presented in this paper. The model of multilayer perceptron and batch pattern training algorithm are theoretically described....
Збережено в:
| Дата: | 2009 |
|---|---|
| Автор: | |
| Формат: | Стаття |
| Мова: | English |
| Опубліковано: |
Інститут проблем штучного інтелекту МОН України та НАН України
2009
|
| Теми: | |
| Онлайн доступ: | https://nasplib.isofts.kiev.ua/handle/123456789/7935 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Цитувати: | Scalability of Parallel Batch Pattern Neural Network Training Algorithm / V. Turchenko // Штучний інтелект. — 2009. — № 2. — С. 144-150. — Бібліогр.: 12 назв. — англ. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraine| id |
nasplib_isofts_kiev_ua-123456789-7935 |
|---|---|
| record_format |
dspace |
| spelling |
Turchenko, V. 2010-04-22T14:01:02Z 2010-04-22T14:01:02Z 2009 Scalability of Parallel Batch Pattern Neural Network Training Algorithm / V. Turchenko // Штучний інтелект. — 2009. — № 2. — С. 144-150. — Бібліогр.: 12 назв. — англ. 1561-5359 https://nasplib.isofts.kiev.ua/handle/123456789/7935 681.3 The development of parallel batch pattern back propagation training algorithm of multilayer perceptron and its scalability research on general-purpose parallel computer are presented in this paper. The model of multilayer perceptron and batch pattern training algorithm are theoretically described. The algorithmic description of the parallel batch pattern training method is presented. The scalability research of the developed parallel algorithm is fulfilled at progressive increasing the dimension of the parallelized problem on general-purpose parallel computer NEC TX-7. Разработка параллельного группового алгоритма обучения обратного распространения ошибки многослойного персептрона и исследование его масштабированности на параллельном компьютере общего назначения представлены в этой статье. Модель многослойного персептрона и групповой алгоритм его обучения описаны формализованным образом. Параллельный групповой алгоритм обучения представлен в алгоритмическом виде. Исследование масштабированности разработанного параллельного алгоритма осуществлено для пропорционально увеличивающегося размера задачи параллелизации на параллельном компьютере общего назначения NEC TX-7. Розробка паралельного групового алгоритму навчання зворотного поширення помилки багатошарового персептрону та дослідження його масштабованості на паралельному комп’ютері загального призначення розглянуті в цій статті. Модель багатошарового персептрону та груповий алгоритм його навчання описані формалізованим чином. Паралельний груповий алгоритм навчання представлено в алгоритмічному вигляді. Дослідження масштабованості розробленого паралельного алгоритму здійснено для пропорційно збільшуваного розміру задачі паралелізації на паралельному комп’ютері загального призначення NEC TX-7. en Інститут проблем штучного інтелекту МОН України та НАН України Нейросетевые и нечеткие системы Scalability of Parallel Batch Pattern Neural Network Training Algorithm Масштабированность параллельного группового алгоритма обучения нейронной сети Масштабованість паралельного групового алгоритму навчання нейронної мережі Article published earlier |
| institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| collection |
DSpace DC |
| title |
Scalability of Parallel Batch Pattern Neural Network Training Algorithm |
| spellingShingle |
Scalability of Parallel Batch Pattern Neural Network Training Algorithm Turchenko, V. Нейросетевые и нечеткие системы |
| title_short |
Scalability of Parallel Batch Pattern Neural Network Training Algorithm |
| title_full |
Scalability of Parallel Batch Pattern Neural Network Training Algorithm |
| title_fullStr |
Scalability of Parallel Batch Pattern Neural Network Training Algorithm |
| title_full_unstemmed |
Scalability of Parallel Batch Pattern Neural Network Training Algorithm |
| title_sort |
scalability of parallel batch pattern neural network training algorithm |
| author |
Turchenko, V. |
| author_facet |
Turchenko, V. |
| topic |
Нейросетевые и нечеткие системы |
| topic_facet |
Нейросетевые и нечеткие системы |
| publishDate |
2009 |
| language |
English |
| publisher |
Інститут проблем штучного інтелекту МОН України та НАН України |
| format |
Article |
| title_alt |
Масштабированность параллельного группового алгоритма обучения нейронной сети Масштабованість паралельного групового алгоритму навчання нейронної мережі |
| description |
The development of parallel batch pattern back propagation training algorithm of multilayer perceptron and
its scalability research on general-purpose parallel computer are presented in this paper. The model of multilayer
perceptron and batch pattern training algorithm are theoretically described. The algorithmic description of the
parallel batch pattern training method is presented. The scalability research of the developed parallel algorithm is
fulfilled at progressive increasing the dimension of the parallelized problem on general-purpose parallel
computer NEC TX-7.
Разработка параллельного группового алгоритма обучения обратного распространения ошибки многослойного
персептрона и исследование его масштабированности на параллельном компьютере общего назначения
представлены в этой статье. Модель многослойного персептрона и групповой алгоритм его обучения
описаны формализованным образом. Параллельный групповой алгоритм обучения представлен в
алгоритмическом виде. Исследование масштабированности разработанного параллельного алгоритма
осуществлено для пропорционально увеличивающегося размера задачи параллелизации на параллельном
компьютере общего назначения NEC TX-7.
Розробка паралельного групового алгоритму навчання зворотного поширення помилки багатошарового
персептрону та дослідження його масштабованості на паралельному комп’ютері загального призначення
розглянуті в цій статті. Модель багатошарового персептрону та груповий алгоритм його навчання
описані формалізованим чином. Паралельний груповий алгоритм навчання представлено в алгоритмічному
вигляді. Дослідження масштабованості розробленого паралельного алгоритму здійснено для пропорційно
збільшуваного розміру задачі паралелізації на паралельному комп’ютері загального призначення NEC
TX-7.
|
| issn |
1561-5359 |
| url |
https://nasplib.isofts.kiev.ua/handle/123456789/7935 |
| citation_txt |
Scalability of Parallel Batch Pattern Neural Network Training Algorithm / V. Turchenko // Штучний інтелект. — 2009. — № 2. — С. 144-150. — Бібліогр.: 12 назв. — англ. |
| work_keys_str_mv |
AT turchenkov scalabilityofparallelbatchpatternneuralnetworktrainingalgorithm AT turchenkov masštabirovannostʹparallelʹnogogruppovogoalgoritmaobučeniâneironnoiseti AT turchenkov masštabovanístʹparalelʹnogogrupovogoalgoritmunavčannâneironnoímereží |
| first_indexed |
2025-12-07T18:28:06Z |
| last_indexed |
2025-12-07T18:28:06Z |
| _version_ |
1850875142662520832 |