Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей

Проанализированы стохастические градиентные методы оптимизации обучения искусственных нейронных сетей. Значительное внимание уделено методу SAG (стохастического среднего градиента)....

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2017
Автор: Самолюк, Т.А.
Формат: Стаття
Мова:Russian
Опубліковано: Інститут кібернетики ім. В.М. Глушкова НАН України 2017
Назва видання:Комп’ютерні засоби, мережі та системи
Онлайн доступ:http://dspace.nbuv.gov.ua/handle/123456789/131514
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей / Т.А. Самолюк // Комп’ютерні засоби, мережі та системи. — 2017. — № 16. — С. 97-105. — Бібліогр.: 14 назв. — рос.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id irk-123456789-131514
record_format dspace
spelling irk-123456789-1315142018-03-24T03:03:29Z Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей Самолюк, Т.А. Проанализированы стохастические градиентные методы оптимизации обучения искусственных нейронных сетей. Значительное внимание уделено методу SAG (стохастического среднего градиента). Проаналізовано стохастичні градієнтні методи оптимізації навчання штучних нейронних мереж. Значна увага приділена методу SAG (стохастичного середнього градієнта). Stochastic gradient methods for optimizing the learning of artificial neural networks are analyzed. Considerable attention is paid to the SAG (stochastic mean gradient method). 2017 Article Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей / Т.А. Самолюк // Комп’ютерні засоби, мережі та системи. — 2017. — № 16. — С. 97-105. — Бібліогр.: 14 назв. — рос. 1817-9908 http://dspace.nbuv.gov.ua/handle/123456789/131514 519. 7004. 62 ru Комп’ютерні засоби, мережі та системи Інститут кібернетики ім. В.М. Глушкова НАН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Russian
description Проанализированы стохастические градиентные методы оптимизации обучения искусственных нейронных сетей. Значительное внимание уделено методу SAG (стохастического среднего градиента).
format Article
author Самолюк, Т.А.
spellingShingle Самолюк, Т.А.
Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
Комп’ютерні засоби, мережі та системи
author_facet Самолюк, Т.А.
author_sort Самолюк, Т.А.
title Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
title_short Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
title_full Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
title_fullStr Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
title_full_unstemmed Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
title_sort исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей
publisher Інститут кібернетики ім. В.М. Глушкова НАН України
publishDate 2017
url http://dspace.nbuv.gov.ua/handle/123456789/131514
citation_txt Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей / Т.А. Самолюк // Комп’ютерні засоби, мережі та системи. — 2017. — № 16. — С. 97-105. — Бібліогр.: 14 назв. — рос.
series Комп’ютерні засоби, мережі та системи
work_keys_str_mv AT samolûkta issledovaniestohastičeskihgradientnyhmetodovoptimizaciialgoritmovobučeniâiskusstvennyhnejronnyhsetej
first_indexed 2023-10-18T21:02:23Z
last_indexed 2023-10-18T21:02:23Z
_version_ 1796151763995197440