On the finite convergence of the NN classification learning on mistakes

The paper establishes an analog of well-known Novikoff’s theorem on the perceptron learning algorithm’s finite convergence
 in linearly separated classes. We obtain a similar result concerning the nearest neighbor classification algorithm
 in the case of compact classes in a general...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:Доповіді НАН України
Datum:2022
1. Verfasser: Norkin, V.I.
Format: Artikel
Sprache:Englisch
Veröffentlicht: Видавничий дім "Академперіодика" НАН України 2022
Schlagworte:
Online Zugang:https://nasplib.isofts.kiev.ua/handle/123456789/184927
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Zitieren:On the finite convergence of the NN classification learning on mistakes / V.I. Norkin // Доповіді Національної академії наук України. — 2022. — № 1. — С. 34-38. — Бібліогр.: 10 назв. — англ.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1862599593278046208
author Norkin, V.I.
author_facet Norkin, V.I.
citation_txt On the finite convergence of the NN classification learning on mistakes / V.I. Norkin // Доповіді Національної академії наук України. — 2022. — № 1. — С. 34-38. — Бібліогр.: 10 назв. — англ.
collection DSpace DC
container_title Доповіді НАН України
description The paper establishes an analog of well-known Novikoff’s theorem on the perceptron learning algorithm’s finite convergence
 in linearly separated classes. We obtain a similar result concerning the nearest neighbor classification algorithm
 in the case of compact classes in a general metric space for the case of non-intersecting classes. The learning
 process consists of gradual modification of the algorithm in misclassification cases. The process is studied in the
 deterministic setting. Classes are understood as compacts in complete metric space, and class separation is defined as
 the non-intersection of compacts. The number of learning steps is bounded by the number of elements in some ε-net
 for the considered classes. Встановлено аналог відомої теореми Новікова про скінченну збіжність алгоритму навчання персептрона у випадку лінійно розділених класів. Ми отримуємо аналогічний результат щодо алгоритму класифікації за принципом найближчого сусіда у випадку компактних класів у загальному метричному просторі
 для класів, що не перетинаються. Процес навчання полягає у поступовій модифікації алгоритму у випадках помилкової класифікації. Процес вивчається в детермінованій постановці. Класи розуміються
 як компакти в повному метричному просторі. Розділення класів визначається як неперетин компактів.
 Кількість кроків навчання обмежена числом елементів в деякій ε-сітці для розглянутих класів.
first_indexed 2025-11-27T22:58:38Z
format Article
fulltext
id nasplib_isofts_kiev_ua-123456789-184927
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 1025-6415
language English
last_indexed 2025-11-27T22:58:38Z
publishDate 2022
publisher Видавничий дім "Академперіодика" НАН України
record_format dspace
spelling Norkin, V.I.
2022-08-26T14:01:50Z
2022-08-26T14:01:50Z
2022
On the finite convergence of the NN classification learning on mistakes / V.I. Norkin // Доповіді Національної академії наук України. — 2022. — № 1. — С. 34-38. — Бібліогр.: 10 назв. — англ.
1025-6415
DOI: doi.org/10.15407/dopovidi2022.01.034
https://nasplib.isofts.kiev.ua/handle/123456789/184927
519.7
The paper establishes an analog of well-known Novikoff’s theorem on the perceptron learning algorithm’s finite convergence
 in linearly separated classes. We obtain a similar result concerning the nearest neighbor classification algorithm
 in the case of compact classes in a general metric space for the case of non-intersecting classes. The learning
 process consists of gradual modification of the algorithm in misclassification cases. The process is studied in the
 deterministic setting. Classes are understood as compacts in complete metric space, and class separation is defined as
 the non-intersection of compacts. The number of learning steps is bounded by the number of elements in some ε-net
 for the considered classes.
Встановлено аналог відомої теореми Новікова про скінченну збіжність алгоритму навчання персептрона у випадку лінійно розділених класів. Ми отримуємо аналогічний результат щодо алгоритму класифікації за принципом найближчого сусіда у випадку компактних класів у загальному метричному просторі
 для класів, що не перетинаються. Процес навчання полягає у поступовій модифікації алгоритму у випадках помилкової класифікації. Процес вивчається в детермінованій постановці. Класи розуміються
 як компакти в повному метричному просторі. Розділення класів визначається як неперетин компактів.
 Кількість кроків навчання обмежена числом елементів в деякій ε-сітці для розглянутих класів.
The work was supported by the grant of the National Research Foundation of Ukraine
 No. 2020.02/0121 “Analytical methods and machine learning in control theory and decision-making
 in conditions of conflict and uncertainty”.
en
Видавничий дім "Академперіодика" НАН України
Доповіді НАН України
Інформатика та кібернетика
On the finite convergence of the NN classification learning on mistakes
Про скінченну збіжність процесу навчання NN класифікації на помилках
Article
published earlier
spellingShingle On the finite convergence of the NN classification learning on mistakes
Norkin, V.I.
Інформатика та кібернетика
title On the finite convergence of the NN classification learning on mistakes
title_alt Про скінченну збіжність процесу навчання NN класифікації на помилках
title_full On the finite convergence of the NN classification learning on mistakes
title_fullStr On the finite convergence of the NN classification learning on mistakes
title_full_unstemmed On the finite convergence of the NN classification learning on mistakes
title_short On the finite convergence of the NN classification learning on mistakes
title_sort on the finite convergence of the nn classification learning on mistakes
topic Інформатика та кібернетика
topic_facet Інформатика та кібернетика
url https://nasplib.isofts.kiev.ua/handle/123456789/184927
work_keys_str_mv AT norkinvi onthefiniteconvergenceofthennclassificationlearningonmistakes
AT norkinvi proskínčennuzbížnístʹprocesunavčannânnklasifíkacíínapomilkah