Scalability of Parallel Batch Pattern Neural Network Training Algorithm
The development of parallel batch pattern back propagation training algorithm of multilayer perceptron and
 its scalability research on general-purpose parallel computer are presented in this paper. The model of multilayer
 perceptron and batch pattern training algorithm are theoreti...
Збережено в:
| Дата: | 2009 |
|---|---|
| Автор: | |
| Формат: | Стаття |
| Мова: | Англійська |
| Опубліковано: |
Інститут проблем штучного інтелекту МОН України та НАН України
2009
|
| Теми: | |
| Онлайн доступ: | https://nasplib.isofts.kiev.ua/handle/123456789/7935 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Цитувати: | Scalability of Parallel Batch Pattern Neural Network Training Algorithm / V. Turchenko // Штучний інтелект. — 2009. — № 2. — С. 144-150. — Бібліогр.: 12 назв. — англ. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraine| Резюме: | The development of parallel batch pattern back propagation training algorithm of multilayer perceptron and
its scalability research on general-purpose parallel computer are presented in this paper. The model of multilayer
perceptron and batch pattern training algorithm are theoretically described. The algorithmic description of the
parallel batch pattern training method is presented. The scalability research of the developed parallel algorithm is
fulfilled at progressive increasing the dimension of the parallelized problem on general-purpose parallel
computer NEC TX-7.
Разработка параллельного группового алгоритма обучения обратного распространения ошибки многослойного
персептрона и исследование его масштабированности на параллельном компьютере общего назначения
представлены в этой статье. Модель многослойного персептрона и групповой алгоритм его обучения
описаны формализованным образом. Параллельный групповой алгоритм обучения представлен в
алгоритмическом виде. Исследование масштабированности разработанного параллельного алгоритма
осуществлено для пропорционально увеличивающегося размера задачи параллелизации на параллельном
компьютере общего назначения NEC TX-7.
Розробка паралельного групового алгоритму навчання зворотного поширення помилки багатошарового
персептрону та дослідження його масштабованості на паралельному комп’ютері загального призначення
розглянуті в цій статті. Модель багатошарового персептрону та груповий алгоритм його навчання
описані формалізованим чином. Паралельний груповий алгоритм навчання представлено в алгоритмічному
вигляді. Дослідження масштабованості розробленого паралельного алгоритму здійснено для пропорційно
збільшуваного розміру задачі паралелізації на паралельному комп’ютері загального призначення NEC
TX-7.
|
|---|---|
| ISSN: | 1561-5359 |