On the finite convergence of the NN classification learning on mistakes
The paper establishes an analog of well-known Novikoff’s theorem on the perceptron learning algorithm’s finite convergence
 in linearly separated classes. We obtain a similar result concerning the nearest neighbor classification algorithm
 in the case of compact classes in a general...
Збережено в:
| Опубліковано в: : | Доповіді НАН України |
|---|---|
| Дата: | 2022 |
| Автор: | |
| Формат: | Стаття |
| Мова: | Англійська |
| Опубліковано: |
Видавничий дім "Академперіодика" НАН України
2022
|
| Теми: | |
| Онлайн доступ: | https://nasplib.isofts.kiev.ua/handle/123456789/184927 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Цитувати: | On the finite convergence of the NN classification learning on mistakes / V.I. Norkin // Доповіді Національної академії наук України. — 2022. — № 1. — С. 34-38. — Бібліогр.: 10 назв. — англ. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1862599593278046208 |
|---|---|
| author | Norkin, V.I. |
| author_facet | Norkin, V.I. |
| citation_txt | On the finite convergence of the NN classification learning on mistakes / V.I. Norkin // Доповіді Національної академії наук України. — 2022. — № 1. — С. 34-38. — Бібліогр.: 10 назв. — англ. |
| collection | DSpace DC |
| container_title | Доповіді НАН України |
| description | The paper establishes an analog of well-known Novikoff’s theorem on the perceptron learning algorithm’s finite convergence
in linearly separated classes. We obtain a similar result concerning the nearest neighbor classification algorithm
in the case of compact classes in a general metric space for the case of non-intersecting classes. The learning
process consists of gradual modification of the algorithm in misclassification cases. The process is studied in the
deterministic setting. Classes are understood as compacts in complete metric space, and class separation is defined as
the non-intersection of compacts. The number of learning steps is bounded by the number of elements in some ε-net
for the considered classes.
Встановлено аналог відомої теореми Новікова про скінченну збіжність алгоритму навчання персептрона у випадку лінійно розділених класів. Ми отримуємо аналогічний результат щодо алгоритму класифікації за принципом найближчого сусіда у випадку компактних класів у загальному метричному просторі
для класів, що не перетинаються. Процес навчання полягає у поступовій модифікації алгоритму у випадках помилкової класифікації. Процес вивчається в детермінованій постановці. Класи розуміються
як компакти в повному метричному просторі. Розділення класів визначається як неперетин компактів.
Кількість кроків навчання обмежена числом елементів в деякій ε-сітці для розглянутих класів.
|
| first_indexed | 2025-11-27T22:58:38Z |
| format | Article |
| fulltext | |
| id | nasplib_isofts_kiev_ua-123456789-184927 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | 1025-6415 |
| language | English |
| last_indexed | 2025-11-27T22:58:38Z |
| publishDate | 2022 |
| publisher | Видавничий дім "Академперіодика" НАН України |
| record_format | dspace |
| spelling | Norkin, V.I. 2022-08-26T14:01:50Z 2022-08-26T14:01:50Z 2022 On the finite convergence of the NN classification learning on mistakes / V.I. Norkin // Доповіді Національної академії наук України. — 2022. — № 1. — С. 34-38. — Бібліогр.: 10 назв. — англ. 1025-6415 DOI: doi.org/10.15407/dopovidi2022.01.034 https://nasplib.isofts.kiev.ua/handle/123456789/184927 519.7 The paper establishes an analog of well-known Novikoff’s theorem on the perceptron learning algorithm’s finite convergence
 in linearly separated classes. We obtain a similar result concerning the nearest neighbor classification algorithm
 in the case of compact classes in a general metric space for the case of non-intersecting classes. The learning
 process consists of gradual modification of the algorithm in misclassification cases. The process is studied in the
 deterministic setting. Classes are understood as compacts in complete metric space, and class separation is defined as
 the non-intersection of compacts. The number of learning steps is bounded by the number of elements in some ε-net
 for the considered classes. Встановлено аналог відомої теореми Новікова про скінченну збіжність алгоритму навчання персептрона у випадку лінійно розділених класів. Ми отримуємо аналогічний результат щодо алгоритму класифікації за принципом найближчого сусіда у випадку компактних класів у загальному метричному просторі
 для класів, що не перетинаються. Процес навчання полягає у поступовій модифікації алгоритму у випадках помилкової класифікації. Процес вивчається в детермінованій постановці. Класи розуміються
 як компакти в повному метричному просторі. Розділення класів визначається як неперетин компактів.
 Кількість кроків навчання обмежена числом елементів в деякій ε-сітці для розглянутих класів. The work was supported by the grant of the National Research Foundation of Ukraine
 No. 2020.02/0121 “Analytical methods and machine learning in control theory and decision-making
 in conditions of conflict and uncertainty”. en Видавничий дім "Академперіодика" НАН України Доповіді НАН України Інформатика та кібернетика On the finite convergence of the NN classification learning on mistakes Про скінченну збіжність процесу навчання NN класифікації на помилках Article published earlier |
| spellingShingle | On the finite convergence of the NN classification learning on mistakes Norkin, V.I. Інформатика та кібернетика |
| title | On the finite convergence of the NN classification learning on mistakes |
| title_alt | Про скінченну збіжність процесу навчання NN класифікації на помилках |
| title_full | On the finite convergence of the NN classification learning on mistakes |
| title_fullStr | On the finite convergence of the NN classification learning on mistakes |
| title_full_unstemmed | On the finite convergence of the NN classification learning on mistakes |
| title_short | On the finite convergence of the NN classification learning on mistakes |
| title_sort | on the finite convergence of the nn classification learning on mistakes |
| topic | Інформатика та кібернетика |
| topic_facet | Інформатика та кібернетика |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/184927 |
| work_keys_str_mv | AT norkinvi onthefiniteconvergenceofthennclassificationlearningonmistakes AT norkinvi proskínčennuzbížnístʹprocesunavčannânnklasifíkacíínapomilkah |