Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей

Проанализированы стохастические градиентные методы оптимизации обучения искусственных нейронных сетей. Значительное внимание уделено методу SAG (стохастического среднего градиента). Проаналізовано стохастичні градієнтні методи оптимізації навчання штучних нейронних мереж. Значна увага приділена мето...

Full description

Saved in:
Bibliographic Details
Published in:Комп’ютерні засоби, мережі та системи
Date:2017
Main Author: Самолюк, Т.А.
Format: Article
Language:Russian
Published: Інститут кібернетики ім. В.М. Глушкова НАН України 2017
Online Access:https://nasplib.isofts.kiev.ua/handle/123456789/131514
Tags: Add Tag
No Tags, Be the first to tag this record!
Journal Title:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Cite this:Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей / Т.А. Самолюк // Комп’ютерні засоби, мережі та системи. — 2017. — № 16. — С. 97-105. — Бібліогр.: 14 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id nasplib_isofts_kiev_ua-123456789-131514
record_format dspace
spelling Самолюк, Т.А.
2018-03-23T19:41:31Z
2018-03-23T19:41:31Z
2017
Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей / Т.А. Самолюк // Комп’ютерні засоби, мережі та системи. — 2017. — № 16. — С. 97-105. — Бібліогр.: 14 назв. — рос.
1817-9908
https://nasplib.isofts.kiev.ua/handle/123456789/131514
519. 7004. 62
Проанализированы стохастические градиентные методы оптимизации обучения искусственных нейронных сетей. Значительное внимание уделено методу SAG (стохастического среднего градиента).
Проаналізовано стохастичні градієнтні методи оптимізації навчання штучних нейронних мереж. Значна увага приділена методу SAG (стохастичного середнього градієнта).
Stochastic gradient methods for optimizing the learning of artificial neural networks are analyzed. Considerable attention is paid to the SAG (stochastic mean gradient method).
ru
Інститут кібернетики ім. В.М. Глушкова НАН України
Комп’ютерні засоби, мережі та системи
Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
Study of stochastic gradient methods for optimization of algorithms of learning artificial neural networks
Article
published earlier
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
title Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
spellingShingle Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
Самолюк, Т.А.
title_short Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
title_full Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
title_fullStr Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
title_full_unstemmed Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
title_sort исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
author Самолюк, Т.А.
author_facet Самолюк, Т.А.
publishDate 2017
language Russian
container_title Комп’ютерні засоби, мережі та системи
publisher Інститут кібернетики ім. В.М. Глушкова НАН України
format Article
title_alt Study of stochastic gradient methods for optimization of algorithms of learning artificial neural networks
description Проанализированы стохастические градиентные методы оптимизации обучения искусственных нейронных сетей. Значительное внимание уделено методу SAG (стохастического среднего градиента). Проаналізовано стохастичні градієнтні методи оптимізації навчання штучних нейронних мереж. Значна увага приділена методу SAG (стохастичного середнього градієнта). Stochastic gradient methods for optimizing the learning of artificial neural networks are analyzed. Considerable attention is paid to the SAG (stochastic mean gradient method).
issn 1817-9908
url https://nasplib.isofts.kiev.ua/handle/123456789/131514
citation_txt Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей / Т.А. Самолюк // Комп’ютерні засоби, мережі та системи. — 2017. — № 16. — С. 97-105. — Бібліогр.: 14 назв. — рос.
work_keys_str_mv AT samolûkta issledovaniestohastičeskihgradientnyhmetodovoptimizaciialgoritmovobučeniâiskusstvennyhneironnyhsetei
AT samolûkta studyofstochasticgradientmethodsforoptimizationofalgorithmsoflearningartificialneuralnetworks
first_indexed 2025-11-30T09:47:13Z
last_indexed 2025-11-30T09:47:13Z
_version_ 1850857149596434432