Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах
В работе предложены методы и модели производительности параллельных процедур, которые позволяют эффективно применять многослойную нейронную сеть в распределенных компьютерных средах с различными топологиями («решетка», «полносвязный граф», «звезда»). Достоверность использования предложенных мето...
Збережено в:
| Опубліковано в: : | Штучний інтелект |
|---|---|
| Дата: | 2011 |
| Автори: | , |
| Формат: | Стаття |
| Мова: | Російська |
| Опубліковано: |
Інститут проблем штучного інтелекту МОН України та НАН України
2011
|
| Теми: | |
| Онлайн доступ: | https://nasplib.isofts.kiev.ua/handle/123456789/60497 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Цитувати: | Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах / Н.Г. Аксак, А.Ю. Лебёдкина // Штучний інтелект. — 2011. — № 4. — С. 481-488. — Бібліогр.: 6 назв. — рос. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1859914958896103424 |
|---|---|
| author | Аксак, Н.Г. Лебёдкина, А.Ю. |
| author_facet | Аксак, Н.Г. Лебёдкина, А.Ю. |
| citation_txt | Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах / Н.Г. Аксак, А.Ю. Лебёдкина // Штучний інтелект. — 2011. — № 4. — С. 481-488. — Бібліогр.: 6 назв. — рос. |
| collection | DSpace DC |
| container_title | Штучний інтелект |
| description | В работе предложены методы и модели производительности параллельных процедур, которые позволяют эффективно применять многослойную нейронную сеть в распределенных компьютерных средах
с различными топологиями («решетка», «полносвязный граф», «звезда»). Достоверность использования
предложенных методов и моделей подтверждается экспериментальными исследованиями.
У статті запропоновано методи та моделі продуктивності паралельних процедур, які дозволяють ефективно застосовувати багатошарову нейронну мережу в розподілених комп’ютерних середовищах
з різними топологіями («решітка», «повнозв’язний граф», «зірка»). Достовірність використання запропонованих методів і моделей підтверджується експериментальними дослідженнями.
The methods and performance modelsof parallel processes that enable effectivemultilevel neural networks use in distributed computing environments with different topologies (“grid”, “fully connected graph”, “star”)
are proposed inthe paper. The reliability of the proposed methods and models is confirmed by experimental
researches.
|
| first_indexed | 2025-12-07T16:04:47Z |
| format | Article |
| fulltext |
«Штучний інтелект» 4’2011 481
8А
УДК 004.272.2
Н.Г. Аксак, А.Ю. Лебёдкина
Харьковский национальный университет радиоэлектроники, г. Харьков, Украина
axak@kture.kharkov.ua
Методы и модели производительности
обучения многослойных нейронных сетей
в распределенных компьютерных средах
В работе предложены методы и модели производительности параллельных процедур, которые позволяют
эффективно применять многослойную нейронную сеть в распределенных компьютерных средах
с различными топологиями («решетка», «полносвязный граф», «звезда»). Достоверность использования
предложенных методов и моделей подтверждается экспериментальными исследованиями.
Введение
Стремительное развитие высокопроизводительных вычислительных систем повлек-
ло за собой множество следствий. Появилась возможность параллельно решать сложные
прикладные задачи с большим объемом вычислений. Для этого необходимы специаль-
ные технологии и методы, допускающие возможность разделения задач на фрагменты,
которые можно выполнять независимо друг от друга. Примерами решения больших
задач в распределенных вычислительных средах являются [1]:
– в Центре «Биоинженерия» РАН определена скрытая периодичность в генети-
ческих последовательностях. Задача решена за 63 часа (на 1 CPU требуется 2 года),
участвовало 8 городов,10 организаций, 14 кластеров, 407 CPUs;
– в ПензГУ решена задача дифракции электромагнитного поля на диэлектри-
ческом анизотропном теле произвольной формы. Потребовалось 26 дней на фоне
работы СКЦ, в то время как на 1 CPU – 4 года. Использовалось 4 кластера СКЦ
НИВЦ МГУ;
– в ИБМХ РАМН, Гематологический центр РАМН осуществлен поиск молекул-
ингибиторов для заданных белков-мишеней (тромбин). Задействовано было 270 CPUs,
решена за 11 дней (на 1 CPU требуется 4,5 года), участвовало 2 города, 3 кластера
в учебном классе.
В то же время для решения неформализованных задач широкое распростра-
нение получили искусственные нейронные сети, при этом их естественная внутренняя
структура позволяет реализовывать параллельное обучение и функционирование ней-
росетевых процедур. Однако на сегодняшний день основные нейросетевые парадигмы
предназначены для моделирования на традиционных однопроцессорных компьютерах.
Кроме того, время обучения нейронных сетей при больших объемах исходных данных,
обрабатываемых последовательно, может быть очень велико.
Таким образом, актуальными являются синтез и адаптация нейронных сетей на вы-
сокопроизводительные вычислительные архитектуры с наименьшим временем обучения.
Целью данной статьи является разработка методов и моделей оценивания про-
изводительности распределенных нейропроцедур со сверхбольшим объемом данных
с учетом адаптации на высокопроизводительные архитектуры.
Аксак Н.Г., Лебедкина А.Ю.
«Искусственный интеллект» 4’2011 482
8А
Методы оценивания эффективности работы
параллельной процедуры
Под распределенными вычислениями понимается способ решения трудоёмких
вычислительных задач с использованием нескольких компьютеров, объединённых
в параллельную вычислительную систему.
Оценивание эффективности распределенной процедуры осуществляется в зави-
симости от количества доступных вычислителей, соответствующих значению P, которые
идентифицируются номерами 1P,0r , где 0r – управляющий вычислитель, 1P,1r –
рабочие вычислители.
Сетевой закон Амдала [2], [3] является традиционным методом определения тео-
ретического ускорения распределенной процедуры
t
t
QQ
Q
t
t
Q
р
Q
Q
Q
Qt
tQ
P
Q
Q1
Q
Q
1
c
P
a1
a
1
S
c
cрc
c
пар
посcc
пос
пос
, (1)
где P − количество вычислителей,
Q − общее количество тактов выполнения последовательной процедуры,
посQ − количество скалярных непараллельных операций в параллельной процедуре,
Q
Q
a пос − удельный вес последовательных операций в параллельной процедуре,
парQ − количество скалярных параллельных операций в параллельной процедуре,
P
Q
QQ
пар
посp – общее количество тактов выполнения параллельной процедуры,
Qt
tQ
c cc
− коэффициент сетевой деградации вычислений,
cQ − общее количество передач данных,
ct − пропускная способность сети,
t − пиковая производительность вычислителя.
Однако закон Амдала при определении общего количества тактов выполнения
параллельной процедуры
P
Q
QQ
пар
посp предполагает в качестве обязательного усло-
вия равномерное распределение объемов данных каждому вычислителю. Таким образом,
графическая интерпретация закона Амдала представляет собой непрерывный прирост
производительности до некоторой точки максимума, что расходится с реальной произ-
водительностью процедуры с учетом синхронизации параллельных процессов.
Тогда метод оценивания эффективности распределенной процедуры по под-
чиненному принципу «master/slave» при параллелизме на уровне задач будет иметь вид
,
tDQVtQtQmax
tQ
S
cc
0
пос
rr
пар
1P,0r
0
(2)
где r
o
r
c
rr NNFt , 1P,0r − пиковая производительность r-о вычислителя,
rF , 1P,0r − тактовая частота r-го вычислителя,
r
cN , 1P,0r − количество вычислительных ядер r-го вычислителя,
r
oN , 1P,0r − количество операций с плавающей запятой на такт r-го вычислителя,
Методы и модели производительности обучения многослойных нейронных сетей…
«Штучний інтелект» 4’2011 483
8А
r
парQ , 1P,0r − количество скалярных параллельных операций, выполняющихся
на r-ом вычислителе,
посQ
− количество скалярных последовательных операций, выполняющихся на
управляющем вычислителе,
D − диаметр, определяющий максимальное расстояние между двумя вычисли-
телями сети,
V − латентность сети.
При параллелизме на уровне данных метод оценивания эффективности распре-
деленной процедуры принимает вид
,
tDQVtQtQmax
tQ
S
cc
0
пос
rr
t
1P,0r
0
(3)
где uQ − количество скалярных последовательных операций на один параллельный такт,
,Kr 1P,0r − критерий равномерного распределения параллельных операций
в зависимости от номера вычислителя r, определяемый в соответствии с (4), (5),
ur
r
t QKQ , 1P,0r − количество тактов выполнения параллельных операций,
выполняющихся на r-ом вычислителе.
Максимально возможные значения критерия равномерного распределения парал-
лельных операций maxK определяются как
.PQ,1P
Q
,PQ,P
Q
K
пар
пар
пар
пар
max
(4)
Текущие значения критерия rK определяются в зависимости от номера вычислителя
,rr ,P
Q
,1 ,P
Q
1bPr1P
Q
)bP(
,rr1 ,1P
Q
,1 ,1P
Q
)1r(
K
d
парпарпар
d
парпар
r (5)
где bPrd − номер вычислителя, начиная с которого уменьшается на еди-
ницу значение критерия равномерного распределения параллельных операций rK ,
)1Pmod(Qb пар – количество вычислителей с большей нагрузкой.
В выражениях (2), (3) значение pQ определяется с учетом барьерной синхрони-
зации параллельных процессов как при гетерогенной, так и при гомогенной распре-
деленной среде, что увеличивает точность оценивания эффективности работы парал-
лельной процедуры.
Модели производительности процедуры
распределенного обучения многослойной нейронной сети
Одним из преимуществ нейронных сетей является возможность обучения, которое
заключается в нахождении коэффициентов связей между нейронами [4].
Аксак Н.Г., Лебедкина А.Ю.
«Искусственный интеллект» 4’2011 484
8А
Обозначим через L21 n,,n,n,P,L,T,I,US ускорение задачи распределенного
обучения L-слойной нейронной сети )nnn( L21 , где U – количество эпох
обучения, I и T – соответственно количество примеров в обучающей и тестовой
выборках, P – число доступных вычислителей, которые идентифицируются
номерами 1P,0r . На основании выражения (3) построим параметрическую модель
производительности распределенного обучения многослойной нейронной сети
ccL21p
0
L21
L21 tDP,L,T,I,UQVr,n,,n,n,L,T,I,UQ
tn,,n,n,L,T,I,UQ
n,,n,n,P,L,T,I,US
, (6)
где алгоритмические составляющие Qp, Qc для модели производительности распре-
деленного обучения многослойной нейронной сети с топологией передачи данных «пол-
носвязный граф» соответственно определены как
)),P2P2PLPL1(T)P4P3PL2PL2(I(UQ
)),t)3n2nn5nnn23(
)3n2tK(max(T))ntK(max5
)nn23tK(max)3n2tK(max(I(UQ
2222
c
0
L1LL
1L
2m
m1m1m
1L
2m
1m
r
r,m
1P,0r
1L
r
r,L
1P,0r
1L
2m
1m1m
r
r,m
1P,0r
L
2m
1m
r
r,m
1P,0r
p
(7)
с топологией передачи данных «звезда» как
)),3LP2PL(T)PLPL2(I(UQ
)),t)3n2nn5nnn23n3n2(
3n2tK(T))ntK(max5
)nn23tK(max)3n2tK(max(I(UQ
c
0
L1LL
1L
2m
m1m1m
L
3m
m1m
1
r
r,21L
r
r,L
1P,0r
1L
2m
1m1m
r
r,m
1P,0r
L
2m
1m
r
r,m
1P,0r
p
(8)
и с топологией передачи данных «решетка» как
(9)
2, 1 2, 3 1
3, 2 2, 1
1
, 1 1,
3
1, 2 , 1 , 1
( (max( 2 3 ) max( 3 2 )
max(max( 2 3 ),max( 2 3 ))
max(max( 2 3 ),max( 2 3 ))
max(max( 2 3 ),max( 2 3 ) 5max( ))
r r
p j r r
r r
r r
L
r r
m r m m r m
m
r r r
L r L L r L L r L
Q U H H t n H t n n
H t n H t n
H t n H t n
H t n H t n H t n
, 1 , 1 1, 2
3
2, 1 3 1, 2
1
2, 1 3 3, 2 4
, 1
2
max(max( 2 3 ) 5max( ),max( 3 2 ))
max(max( 3 2 ),max( 3 2 ))
max(max( 3 2 ),max( 3 2 )))
( max( 2 3 ) 3
r r r
L r L L r L L r L L
r r
L r L L L r L L
m L
r r
r r
L
r
m r m
m
H t n H t n H t n n
H t n n H t n n
H t n n H t n n
T H t n
1
1 1 1
2
2 5 )),
13 14
( ( ) ( 1)),
2 2
L
m m m L L
m
c
n n n n n
P LPIQ U Tb
Методы и модели производительности обучения многослойных нейронных сетей…
«Штучний інтелект» 4’2011 485
8А
где z – количество ребер в топологии «решетка», которые идентифицируются номе-
рами z,1j ,
r,lK – критерий равномерного распределения по вычислителям нейронов каждого
слоя определяется как
,rr ,1P
n,1 ,1P
n1bPr11P
n)bP(
,rr1 ,11P
n,1 ,11P
n)1r(
K
d
lll
d
ll
r,l (10)
где bPrd − номер вычислителя, начиная с которого уменьшается на единицу
значение критерия равномерного распределения параллельных операций rK ,
)1Pmod(nb l – количество вычислителей с большей нагрузкой,
r,lH – критерий равномерного распределения по вычислителям нейронов каждого
слоя в топологии «решетка» определяется как
,rr ,P
zn,1 ,P
znb
z
P
r1P
zn)b
z
P
(
,rr0 ,1P
zn,1 ,1P
znr
H
d
lll
d
ll
r,l (11)
где bz
Prd − номер вычислителя, начиная с которого уменьшается на еди-
ницу значение критерия равномерного распределения параллельных операций rK ,
z
Pmodnb l – количество вычислителей с большей нагрузкой,
jH – текущие значения критерия в зависимости от номера ребра определяются как
,rj ,
z
I,1 ,
z
I1ezj1
z
I)bz(
,rj1 ,1
z
I,1 ,1
z
I)1j(
H
d222
d22
j (12)
где bzrd − номер ребра, начиная с которого уменьшается на единицу зна-
чение критерия равномерного распределения обучающей выборки I,
zmodIb – количество ребер с большей нагрузкой.
На основе моделей производительности получены наиболее эффективные про-
цедуры распределенного обучения многослойной нейронной сети методом обратного
распространения ошибки с топологиями передачи данных «звезда», «полносвязный граф»
и «решетка» [5]. На рис. 1 представлены результаты полученных на основании моде-
лей (7), (8), (9) теоретических ускорений по сравнению с экспериментальными.
Для проведения экспериментальных исследований была решена задача класси-
фикации изображений размерностью 500500 пикселей. В соответствии с выкладками в
[6] были выбраны следующие исходные данные: L = 3 – количество слоев в мно-
гослойной нейронной сети (включая первый и выходной); n1 = 250000, n2 = 120, n3 = 5 –
количество нейронов в первом, втором и третьем слое соответственно; обучающая и
тестовые выборки величиной I = 41030 и T = 3000 примеров; количество эпох U
= 41090 ; количество вычислителей .28,1P
Аксак Н.Г., Лебедкина А.Ю.
«Искусственный интеллект» 4’2011 486
8А
а) Топология сети передачи б) Топология сети передачи данных
данных «звезда» «полносвязный граф»
в) Топология сети передачи данных «решетка»
Рисунок 1 – Зависимость времени обучения нейронной сети
от количества вычислителей
На рис. 2 показана графическая интерпретация методов определения ускорения
с помощью полученного метода оценивания эффективности (3) и традиционного закона
Амдала (1).
а) Топология сети передачи данных «звезда» б) Топология сети передачи данных
«полносвязный граф»
Закон Амдала (1)
Метод оценивания
эффективности (4)
Экспериментальное
ускорение
Теоретическое
ускорение
––
–
Количество вычислителей
Количество вычислителей
Количество вычислителей
Количество вычислителей
Количество вычислителей
У
ск
ор
ен
ие
, р
аз
У
ск
ор
ен
ие
, р
аз
У
ск
ор
ен
ие
, р
аз
У
ск
ор
ен
ие
, р
аз
У
ск
ор
ен
ие
, р
аз
Методы и модели производительности обучения многослойных нейронных сетей…
«Штучний інтелект» 4’2011 487
8А
в) Топология сети передачи данных «решетка»
Рисунок 2 – Графическая интерпретация методов определения ускорения
Как видно из рис. 1, интерпретация теоретического ускорения, полученного на
основании параметрических моделей (7), (8), (9), соответствует экспериментальным
результатам, что говорит о достоверности использования предложенной модели для
описания производительности распределенной процедуры обучения L-слойной нейрон-
ной сети. На рис. 2 отражено различие между графическими интерпретациями методов
оценивания ускорения обучения L-слойной нейронной сети. На основании чего можно
сделать вывод о том, что предложенный метод описывает ускорение распределенной
процедуры в зависимости от значений задержки при барьерной синхронизации.
Выводы
Научная новизна работы заключается в том, что предложенные методы оцени-
вания эффективности работы распределенных процедур при параллелизме на уровне
задач и на уровне данных с помощью разработанных критериев равномерного распре-
деления параллельных операций позволяют получить максимальное ускорение при
наиболее эффективном использовании доступного количества вычислителей.
Разработанные параметрические модели производительности процедуры рас-
пределенного обучения многослойной нейронной сети в виде алгоритмических состав-
ляющих позволяют значительно сократить время ее обучения в распределенных
компьютерных сетях с различными топологиями («решетка», «полносвязный граф»,
«звезда»).
Литература
1. Воеводин Вл.В. Решение больших задач в распределенных вычислительных средах / Вл.В. Во-
єводин //Автоматика и Телемеханика. – 2007. – № 5. – С. 32-45.
2. Amdahl G. Validity of the single-processor approach to achieving large-scale computing capabilities /
G. Amdahl // Proc. 1967 AFIPS Conf., AFIPS Press. – 1967. – V. 30. – P. 483.
3. Гергель В.П. Основы параллельных вычислений для многопроцессорных вычислительных систем :
[учебное пособие] / В.П. Гергель, Р.Г. Строгин. – Нижний Новгород : Изд-во ННГУ им. Н.И.
Лобачевского, 2003. – 184 с.
Количество вычислителей
У
ск
ор
ен
ие
, р
аз
Аксак Н.Г., Лебедкина А.Ю.
«Искусственный интеллект» 4’2011 488
8А
4. Руденко О.Г. Искусственные нейронные сети: Учебное пособие / О.Г. Руденко, Е.В. Бодянский. –
Харьков : ООО «Компания СМИТ», 2005. – 408 с.
5. Аксак Н.Г. Процедура параллельного обучения многослойной нейронной сети. Топология передачи
данных «звезда» / Н.Г. Аксак, А.Ю. Лебёдкина, О.В. Хоменко // Науковий вісник Чернівецького
національного університету імені Юрія Федьковича. Серія: Комп’ютерні системи та компоненти. –
Том 1, випуск 2. – Черновцы:ЧНУ, 2010. – С. 95-103.
6. Ососков Г.А. Современные методы обработки экспериментальных данных в физике высоких
энергий / Г.А. Осоков, А. Полянский., И.В. Пузынин // Научный обзорный журнал «Физика
элементарных частиц и атомного ядра (ЭЧАЯ)». – Том 33, выпуск 3. – Дубна : ОИЯИ, 2002.–
С. 676-745.
Literatura
1. VoevodinVl.V. Avtomatika iT elemehanika. № 5. 2007. S. 32-45.
2. Amdahl G. Proc. 1967 AFIPS Conf. AFIPS Press. V 30. 1967. P 483
3. Gergel’ V.P. Osnovy parallel'nyh vychislenij dlja mnogoprocessornyh vychisl’nyh sistem. Nizhnij
Novgorod : Izd-vo NNGU im. N.I. Lobachevskogo. 2003. 184 s.
4. Rudenko O.G. Iskusstvennye nejronnye seti: Uchebnoe posobie. Har’kov: OOO “Kompanija SMIT”.
2005. 408 s.
5. Aksak N.G. Naukovyj visnyk Chernivec’koho nacional’noh ouniversytetu imeni Yuriya Fed’kovycha.
Seriya: Komp’yuterni systemy ta komponenty. Tom 1. Vypusk 2.Chernovcy :ChNU. 2010. S 95-103
6. Ososkov G.A. Nauchnyj obzornyj zhurnal “Fizika jelementarnyh chastic i atomnogo jadra (JeChAJa)”.
Tom 33. Vypusk 3. Dubna: OIJaI. 2002. S 676-745
Н.Г. Аксак, А.Ю. Лебьодкіна
Методи і моделі продуктивності навчання багатошарових нейронних мереж
в розподілених комп’ютерних середовищах
У статті запропоновано методи та моделі продуктивності паралельних процедур, які дозволяють
ефективно застосовувати багатошарову нейронну мережу в розподілених комп’ютерних середовищах
з різними топологіями («решітка», «повнозв’язний граф», «зірка»). Достовірність використання запро-
понованих методів і моделей підтверджується експериментальними дослідженнями.
N.G. Axak, A.U. Lebodkina
Methods and Performance Models of Training Multilayer Neural Networks in Distributed
Computing Environments
The methods and performance modelsof parallel processes that enable effectivemultilevel neural networks
use in distributed computing environments with different topologies (“grid”, “fully connected graph”, “star”)
are proposed inthe paper. The reliability of the proposed methods and models is confirmed by experimental
researches.
Статья поступила в редакцию 08.07.2011.
|
| id | nasplib_isofts_kiev_ua-123456789-60497 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | 1561-5359 |
| language | Russian |
| last_indexed | 2025-12-07T16:04:47Z |
| publishDate | 2011 |
| publisher | Інститут проблем штучного інтелекту МОН України та НАН України |
| record_format | dspace |
| spelling | Аксак, Н.Г. Лебёдкина, А.Ю. 2014-04-15T18:53:11Z 2014-04-15T18:53:11Z 2011 Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах / Н.Г. Аксак, А.Ю. Лебёдкина // Штучний інтелект. — 2011. — № 4. — С. 481-488. — Бібліогр.: 6 назв. — рос. 1561-5359 https://nasplib.isofts.kiev.ua/handle/123456789/60497 004.272.2 В работе предложены методы и модели производительности параллельных процедур, которые позволяют эффективно применять многослойную нейронную сеть в распределенных компьютерных средах с различными топологиями («решетка», «полносвязный граф», «звезда»). Достоверность использования предложенных методов и моделей подтверждается экспериментальными исследованиями. У статті запропоновано методи та моделі продуктивності паралельних процедур, які дозволяють ефективно застосовувати багатошарову нейронну мережу в розподілених комп’ютерних середовищах з різними топологіями («решітка», «повнозв’язний граф», «зірка»). Достовірність використання запропонованих методів і моделей підтверджується експериментальними дослідженнями. The methods and performance modelsof parallel processes that enable effectivemultilevel neural networks use in distributed computing environments with different topologies (“grid”, “fully connected graph”, “star”) are proposed inthe paper. The reliability of the proposed methods and models is confirmed by experimental researches. ru Інститут проблем штучного інтелекту МОН України та НАН України Штучний інтелект Нейронные сети и нейросетевые технологии. Информационная безопасность ИС Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах Методи і моделі продуктивності навчання багатошарових нейронних мереж в розподілених комп’ютерних середовищах Methods and Performance Models of Training Multilayer Neural Networks in Distributed Computing Environments Article published earlier |
| spellingShingle | Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах Аксак, Н.Г. Лебёдкина, А.Ю. Нейронные сети и нейросетевые технологии. Информационная безопасность ИС |
| title | Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах |
| title_alt | Методи і моделі продуктивності навчання багатошарових нейронних мереж в розподілених комп’ютерних середовищах Methods and Performance Models of Training Multilayer Neural Networks in Distributed Computing Environments |
| title_full | Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах |
| title_fullStr | Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах |
| title_full_unstemmed | Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах |
| title_short | Методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах |
| title_sort | методы и модели производительности обучения многослойных нейронных сетей в распределенных компьютерных средах |
| topic | Нейронные сети и нейросетевые технологии. Информационная безопасность ИС |
| topic_facet | Нейронные сети и нейросетевые технологии. Информационная безопасность ИС |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/60497 |
| work_keys_str_mv | AT aksakng metodyimodeliproizvoditelʹnostiobučeniâmnogosloinyhneironnyhseteivraspredelennyhkompʹûternyhsredah AT lebedkinaaû metodyimodeliproizvoditelʹnostiobučeniâmnogosloinyhneironnyhseteivraspredelennyhkompʹûternyhsredah AT aksakng metodiímodelíproduktivnostínavčannâbagatošarovihneironnihmerežvrozpodílenihkompûternihseredoviŝah AT lebedkinaaû metodiímodelíproduktivnostínavčannâbagatošarovihneironnihmerežvrozpodílenihkompûternihseredoviŝah AT aksakng methodsandperformancemodelsoftrainingmultilayerneuralnetworksindistributedcomputingenvironments AT lebedkinaaû methodsandperformancemodelsoftrainingmultilayerneuralnetworksindistributedcomputingenvironments |