Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах

Ефект зникнення градієнтів є спільною проблемою навчання рекурентних і глибоких нейромереж. У статті розроблено метод для оцінки внеску кожного прикладу з навчальної вибірки у градієнт цільової функції навчання. Запропоновано новий універсальний метод, який дозволяє утримувати норму градієнтів у за...

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2016
Автори: Чернодуб, А.М., Новицький, Д.В.
Формат: Стаття
Мова:Ukrainian
Опубліковано: Інститут проблем математичних машин і систем НАН України 2016
Назва видання:Математичні машини і системи
Теми:
Онлайн доступ:http://dspace.nbuv.gov.ua/handle/123456789/113598
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах / А.М. Чернодуб, Д.В. Новицький // Математичні машини і системи. — 2016. — № 2. — С. 30-43. — Бібліогр.: 26 назв. — укр.

Репозиторії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id irk-123456789-113598
record_format dspace
spelling irk-123456789-1135982017-02-11T03:02:27Z Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах Чернодуб, А.М. Новицький, Д.В. Обчислювальні системи Ефект зникнення градієнтів є спільною проблемою навчання рекурентних і глибоких нейромереж. У статті розроблено метод для оцінки внеску кожного прикладу з навчальної вибірки у градієнт цільової функції навчання. Запропоновано новий універсальний метод, який дозволяє утримувати норму градієнтів у задовільних межах. Для експериментальної перевірки нашого підходу використано спеціальні синтетичні бенчмарки для тестування нейромереж на здатність виявляти довготривалі залежності. Навчена з використанням даного методу рекурентна нейромережа з одиничними затримками може знаходити залежності між подіями в часових послідовностях довжиною до 100 і більше тактів. Эффект исчезновения градиентов является общей проблемой обучения рекуррентных и глубоких нейросетей. В статье разработан метод для оценки вклада каждого обучающего примера из выборки в градиент целевой функции обучения. Предложен новый универсальный метод, который позволяет удерживать норму градиентов в приемлемых пределах. Для экспериментальной проверки нашего подхода использованы специальные синтетические бенчмарки для тестирования нейросетей на способность выявлять долговременные зависимости. Рекуррентная нейросеть с единичной линией задержек, обученная с использованием данного метода, может находить зависимости между событиями во временных последовательностях длиной до 100 и более тактов. Vanishing gradients effect is a common problem for recurrent and deep neural networks. In this paper we construct a method to estimate a contribution of each training example to the norm of the long-term components of the target functions gradient. We propose a novel universal technique that makes the norm of the gradient stay in the suitable range. To check our framework experimentally we use a special synthetic benchmarks for testing RNNs on ability to capture long-term dependencies. Our recurrent network can detect links between events in the (temporal) sequence at the range 100 and longer. 2016 Article Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах / А.М. Чернодуб, Д.В. Новицький // Математичні машини і системи. — 2016. — № 2. — С. 30-43. — Бібліогр.: 26 назв. — укр. 1028-9763 http://dspace.nbuv.gov.ua/handle/123456789/113598 681.513.7 uk Математичні машини і системи Інститут проблем математичних машин і систем НАН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Ukrainian
topic Обчислювальні системи
Обчислювальні системи
spellingShingle Обчислювальні системи
Обчислювальні системи
Чернодуб, А.М.
Новицький, Д.В.
Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах
Математичні машини і системи
description Ефект зникнення градієнтів є спільною проблемою навчання рекурентних і глибоких нейромереж. У статті розроблено метод для оцінки внеску кожного прикладу з навчальної вибірки у градієнт цільової функції навчання. Запропоновано новий універсальний метод, який дозволяє утримувати норму градієнтів у задовільних межах. Для експериментальної перевірки нашого підходу використано спеціальні синтетичні бенчмарки для тестування нейромереж на здатність виявляти довготривалі залежності. Навчена з використанням даного методу рекурентна нейромережа з одиничними затримками може знаходити залежності між подіями в часових послідовностях довжиною до 100 і більше тактів.
format Article
author Чернодуб, А.М.
Новицький, Д.В.
author_facet Чернодуб, А.М.
Новицький, Д.В.
author_sort Чернодуб, А.М.
title Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах
title_short Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах
title_full Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах
title_fullStr Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах
title_full_unstemmed Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах
title_sort метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах
publisher Інститут проблем математичних машин і систем НАН України
publishDate 2016
topic_facet Обчислювальні системи
url http://dspace.nbuv.gov.ua/handle/123456789/113598
citation_txt Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах / А.М. Чернодуб, Д.В. Новицький // Математичні машини і системи. — 2016. — № 2. — С. 30-43. — Бібліогр.: 26 назв. — укр.
series Математичні машини і системи
work_keys_str_mv AT černodubam metodsemplûvannâdlâborotʹbizefektomzniknennâgradíêntívurekurentnihnejromerežah
AT novicʹkijdv metodsemplûvannâdlâborotʹbizefektomzniknennâgradíêntívurekurentnihnejromerežah
first_indexed 2024-03-30T09:27:59Z
last_indexed 2024-03-30T09:27:59Z
_version_ 1796150004810776576