On the finite convergence of the NN classification learning on mistakes

The paper establishes an analog of well-known Novikoff’s theorem on the perceptron learning algorithm’s finite convergence in linearly separated classes. We obtain a similar result concerning the nearest neighbor classification algorithm in the case of compact classes in a general metric space for...

Full description

Saved in:
Bibliographic Details
Published in:Доповіді НАН України
Date:2022
Main Author: Norkin, V.I.
Format: Article
Language:English
Published: Видавничий дім "Академперіодика" НАН України 2022
Subjects:
Online Access:https://nasplib.isofts.kiev.ua/handle/123456789/184927
Tags: Add Tag
No Tags, Be the first to tag this record!
Journal Title:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Cite this:On the finite convergence of the NN classification learning on mistakes / V.I. Norkin // Доповіді Національної академії наук України. — 2022. — № 1. — С. 34-38. — Бібліогр.: 10 назв. — англ.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
Description
Summary:The paper establishes an analog of well-known Novikoff’s theorem on the perceptron learning algorithm’s finite convergence in linearly separated classes. We obtain a similar result concerning the nearest neighbor classification algorithm in the case of compact classes in a general metric space for the case of non-intersecting classes. The learning process consists of gradual modification of the algorithm in misclassification cases. The process is studied in the deterministic setting. Classes are understood as compacts in complete metric space, and class separation is defined as the non-intersection of compacts. The number of learning steps is bounded by the number of elements in some ε-net for the considered classes. Встановлено аналог відомої теореми Новікова про скінченну збіжність алгоритму навчання персептрона у випадку лінійно розділених класів. Ми отримуємо аналогічний результат щодо алгоритму класифікації за принципом найближчого сусіда у випадку компактних класів у загальному метричному просторі для класів, що не перетинаються. Процес навчання полягає у поступовій модифікації алгоритму у випадках помилкової класифікації. Процес вивчається в детермінованій постановці. Класи розуміються як компакти в повному метричному просторі. Розділення класів визначається як неперетин компактів. Кількість кроків навчання обмежена числом елементів в деякій ε-сітці для розглянутих класів.
ISSN:1025-6415