Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах
Ефект зникнення градієнтів є спільною проблемою навчання рекурентних і глибоких нейромереж. У статті розроблено метод для оцінки внеску кожного прикладу з навчальної вибірки у градієнт цільової функції навчання. Запропоновано новий універсальний метод, який дозволяє утримувати норму градієнтів у за...
Saved in:
| Published in: | Математичні машини і системи |
|---|---|
| Date: | 2016 |
| Main Authors: | , |
| Format: | Article |
| Language: | Ukrainian |
| Published: |
Інститут проблем математичних машин і систем НАН України
2016
|
| Subjects: | |
| Online Access: | https://nasplib.isofts.kiev.ua/handle/123456789/113598 |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| Journal Title: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Cite this: | Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах / А.М. Чернодуб, Д.В. Новицький // Математичні машини і системи. — 2016. — № 2. — С. 30-43. — Бібліогр.: 26 назв. — укр. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1862618075615985664 |
|---|---|
| author | Чернодуб, А.М. Новицький, Д.В. |
| author_facet | Чернодуб, А.М. Новицький, Д.В. |
| citation_txt | Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах / А.М. Чернодуб, Д.В. Новицький // Математичні машини і системи. — 2016. — № 2. — С. 30-43. — Бібліогр.: 26 назв. — укр. |
| collection | DSpace DC |
| container_title | Математичні машини і системи |
| description | Ефект зникнення градієнтів є спільною проблемою навчання рекурентних і глибоких нейромереж. У статті розроблено метод для оцінки внеску кожного прикладу з навчальної вибірки у градієнт цільової функції навчання. Запропоновано новий універсальний метод, який дозволяє утримувати норму градієнтів у задовільних межах. Для експериментальної перевірки нашого підходу використано спеціальні синтетичні бенчмарки для тестування нейромереж на здатність виявляти довготривалі залежності. Навчена з використанням даного методу рекурентна нейромережа з одиничними затримками може знаходити залежності між подіями в часових послідовностях довжиною до 100 і більше тактів.
Эффект исчезновения градиентов является общей проблемой обучения рекуррентных и глубоких нейросетей. В статье разработан метод для оценки вклада каждого обучающего примера из выборки в градиент целевой функции обучения. Предложен новый универсальный метод, который позволяет удерживать норму градиентов в приемлемых пределах. Для экспериментальной проверки нашего подхода использованы специальные синтетические бенчмарки для тестирования нейросетей на способность выявлять долговременные зависимости. Рекуррентная нейросеть с единичной линией задержек, обученная с использованием данного метода, может находить зависимости между событиями во временных последовательностях длиной до 100 и более тактов.
Vanishing gradients effect is a common problem for recurrent and deep neural networks. In this paper we construct a method to estimate a contribution of each training example to the norm of the long-term components of the target functions gradient. We propose a novel universal technique that makes the norm of the gradient stay in the suitable range. To check our framework experimentally we use a special synthetic benchmarks for testing RNNs on ability to capture long-term dependencies. Our recurrent network can detect links between events in the (temporal) sequence at the range 100 and longer.
|
| first_indexed | 2025-12-07T13:12:41Z |
| format | Article |
| fulltext | |
| id | nasplib_isofts_kiev_ua-123456789-113598 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | 1028-9763 |
| language | Ukrainian |
| last_indexed | 2025-12-07T13:12:41Z |
| publishDate | 2016 |
| publisher | Інститут проблем математичних машин і систем НАН України |
| record_format | dspace |
| spelling | Чернодуб, А.М. Новицький, Д.В. 2017-02-10T17:39:35Z 2017-02-10T17:39:35Z 2016 Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах / А.М. Чернодуб, Д.В. Новицький // Математичні машини і системи. — 2016. — № 2. — С. 30-43. — Бібліогр.: 26 назв. — укр. 1028-9763 https://nasplib.isofts.kiev.ua/handle/123456789/113598 681.513.7 Ефект зникнення градієнтів є спільною проблемою навчання рекурентних і глибоких нейромереж. У статті розроблено метод для оцінки внеску кожного прикладу з навчальної вибірки у градієнт цільової функції навчання. Запропоновано новий універсальний метод, який дозволяє утримувати норму градієнтів у задовільних межах. Для експериментальної перевірки нашого підходу використано спеціальні синтетичні бенчмарки для тестування нейромереж на здатність виявляти довготривалі залежності. Навчена з використанням даного методу рекурентна нейромережа з одиничними затримками може знаходити залежності між подіями в часових послідовностях довжиною до 100 і більше тактів. Эффект исчезновения градиентов является общей проблемой обучения рекуррентных и глубоких нейросетей. В статье разработан метод для оценки вклада каждого обучающего примера из выборки в градиент целевой функции обучения. Предложен новый универсальный метод, который позволяет удерживать норму градиентов в приемлемых пределах. Для экспериментальной проверки нашего подхода использованы специальные синтетические бенчмарки для тестирования нейросетей на способность выявлять долговременные зависимости. Рекуррентная нейросеть с единичной линией задержек, обученная с использованием данного метода, может находить зависимости между событиями во временных последовательностях длиной до 100 и более тактов. Vanishing gradients effect is a common problem for recurrent and deep neural networks. In this paper we construct a method to estimate a contribution of each training example to the norm of the long-term components of the target functions gradient. We propose a novel universal technique that makes the norm of the gradient stay in the suitable range. To check our framework experimentally we use a special synthetic benchmarks for testing RNNs on ability to capture long-term dependencies. Our recurrent network can detect links between events in the (temporal) sequence at the range 100 and longer. uk Інститут проблем математичних машин і систем НАН України Математичні машини і системи Обчислювальні системи Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах Метод семплирования для борьбы с эффектом исчезновения градиентов в рекуррентных нейросетях Sampling method against to the vanishing gradients effect in recurrent neural networks Article published earlier |
| spellingShingle | Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах Чернодуб, А.М. Новицький, Д.В. Обчислювальні системи |
| title | Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах |
| title_alt | Метод семплирования для борьбы с эффектом исчезновения градиентов в рекуррентных нейросетях Sampling method against to the vanishing gradients effect in recurrent neural networks |
| title_full | Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах |
| title_fullStr | Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах |
| title_full_unstemmed | Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах |
| title_short | Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах |
| title_sort | метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах |
| topic | Обчислювальні системи |
| topic_facet | Обчислювальні системи |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/113598 |
| work_keys_str_mv | AT černodubam metodsemplûvannâdlâborotʹbizefektomzniknennâgradíêntívurekurentnihneiromerežah AT novicʹkiidv metodsemplûvannâdlâborotʹbizefektomzniknennâgradíêntívurekurentnihneiromerežah AT černodubam metodsemplirovaniâdlâborʹbyséffektomisčeznoveniâgradientovvrekurrentnyhneirosetâh AT novicʹkiidv metodsemplirovaniâdlâborʹbyséffektomisčeznoveniâgradientovvrekurrentnyhneirosetâh AT černodubam samplingmethodagainsttothevanishinggradientseffectinrecurrentneuralnetworks AT novicʹkiidv samplingmethodagainsttothevanishinggradientseffectinrecurrentneuralnetworks |