Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов
Решена задача автоматизации формирования выборок для построения диагностических и распознающих моделей по прецедентам. Предложен метод извлечения обучающих выборок, который обеспечивает сохранение в сформированной подвыборке важнейших топологических свойств исходной выборки, не требуя при этом загру...
Збережено в:
| Опубліковано в: : | Математичні машини і системи |
|---|---|
| Дата: | 2013 |
| Автор: | |
| Формат: | Стаття |
| Мова: | Російська |
| Опубліковано: |
Інститут проблем математичних машин і систем НАН України
2013
|
| Теми: | |
| Онлайн доступ: | https://nasplib.isofts.kiev.ua/handle/123456789/83799 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Цитувати: | Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов / С.А. Субботин // Мат. машини і системи. — 2013. — № 1. — С. 56-62. — Бібліогр.: 15 назв. — рос. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1859633663461818368 |
|---|---|
| author | Субботин, С.А. |
| author_facet | Субботин, С.А. |
| citation_txt | Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов / С.А. Субботин // Мат. машини і системи. — 2013. — № 1. — С. 56-62. — Бібліогр.: 15 назв. — рос. |
| collection | DSpace DC |
| container_title | Математичні машини і системи |
| description | Решена задача автоматизации формирования выборок для построения диагностических и распознающих моделей по прецедентам. Предложен метод извлечения обучающих выборок, который обеспечивает сохранение в сформированной подвыборке важнейших топологических свойств исходной выборки, не требуя при этом загрузки в память ЭВМ исходной выборки, а также многочисленных проходов исходной выборки, что позволяет сократить объём выборки и уменьшить требования к ресурсам ЭВМ.
Вирішено задачу автоматизації формування виборок для побудови діагностичних і розпізнавальних моделей за прецедентами. Запропоновано метод витягу навчальних виборок, що забезпечує збереження у сформованій підвибірці найважливіших топологічних властивостей вихідної вибірки, не вимагаючи при цьому завантаження у пам'ять ЕОМ вихідної вибірки, а також численних проходів вихідної вибірки, що дозволяє скоротити обсяг вибірки і зменшити вимоги до ресурсів ЕОМ.
The task of sample formation automaticity for diagnostic and recognizing model building on precedents is solved. Extraction method of training samples is offered. It maintains saving the important topological properties of the original sample in a formed sub-sample, and does not require download of the original sample to the computer memory, and the numerous passages of the original sample. This reduces the size of the sample and reduces the resource requirements of a computer.
|
| first_indexed | 2025-12-07T13:13:32Z |
| format | Article |
| fulltext |
56 © Субботин С.А., 2013
ISSN 1028-9763. Математичні машини і системи, 2013, № 1
УДК 004.93
С.А. СУББОТИН
МЕТОД ИЗВЛЕЧЕНИЯ ОБУЧАЮЩИХ ВЫБОРОК ИЗ ИСХОДНЫХ ВЫБОРОК
БОЛЬШОГО ОБЪЕМА ДЛЯ ДИАГНОСТИРОВАНИЯ И РАСПОЗНАВАНИЯ
ОБРАЗОВ
Анотація. Вирішено задачу автоматизації формування виборок для побудови діагностичних і роз-
пізнавальних моделей за прецедентами. Запропоновано метод витягу навчальних виборок, що за-
безпечує збереження у сформованій підвиборці найважливіших топологічних властивостей вихід-
ної вибірки, не вимагаючи при цьому завантаження у пам'ять ЕОМ вихідної вибірки, а також чис-
ленних проходів вихідної вибірки, що дозволяє скоротити обсяг вибірки і зменшити вимоги до ре-
сурсів ЕОМ.
Ключові слова: вибірка, відбір екземплярів, редукція даних, інтелектуальний аналіз даних, скоро-
чення розмірності даних.
Аннотация. Решена задача автоматизации формирования выборок для построения диагностиче-
ских и распознающих моделей по прецедентам. Предложен метод извлечения обучающих выборок,
который обеспечивает сохранение в сформированной подвыборке важнейших топологических
свойств исходной выборки, не требуя при этом загрузки в память ЭВМ исходной выборки, а так-
же многочисленных проходов исходной выборки, что позволяет сократить объём выборки и
уменьшить требования к ресурсам ЭВМ.
Ключевые слова: выборка, отбор экземпляров, редукция данных, интеллектуальный анализ дан-
ных, сокращение размерности данных.
Abstract. The task of sample formation automaticity for diagnostic and recognizing model build-
ing on precedents is solved. Extraction method of training samples is offered. It maintains saving
the important topological properties of the original sample in a formed sub-sample, and does not
require download of the original sample to the computer memory, and the numerous passages of
the original sample. This reduces the size of the sample and reduces the resource requirements of
a computer.
Keywords: sample, example selection, data reduction, data mining, data dimensionality reduction.
1. Введение
При решении задач построения диагностических и распознающих моделей на основе ней-
ронных и нейро-нечётких сетей [1–4], а также деревьев решений [3], зачастую необходимо
использовать выборки данных большого объема. Это приводит к необходимости исполь-
зования ЭВМ с большим объемом оперативной памяти, а также существенно увеличивает
затраты машинного времени на обработку данных. Поэтому актуальной задачей является
сокращение размерности выборок данных.
Традиционным и наиболее широко применяемым подходом при решении данной
задачи является использование методов отбора информативных признаков [1–5], которые
удаляют из исходного набора наименее информативные признаки, и методов конструиро-
вания признаков [5, 6], которые заменяют исходный набор признаков рассчитанным на его
основе набором искусственных признаков меньшего размера. Однако, если изначально за-
данный набор признаков не является избыточным либо объем выборки чрезвычайно велик
для представления и обработки в памяти ЭВМ, применение этих методов оказывается на
практике затруднительным, а результаты их работы приводят к потере существенной для
дальнейшего анализа информации либо не позволяют сохранить исходную интерпрета-
бельность данных.
ISSN 1028-9763. Математичні машини і системи, 2013, № 1 57
Другим, существенно реже используемым на практике, подходом при решении дан-
ной задачи является сокращение объёма выборки. Как правило, это реализуется посредст-
вом извлечения случайных подвыборок из исходной выборки [7–9], что может приводить к
формированию нерепрезентативных в топологическом смысле выборок вследствие невк-
лючения в них редко встречающихся экземпляров на границах классов, представленных в
исходной выборке.
В [10–13] предложены переборные и эволюционные методы формирования выбо-
рок, а также модель (комплекс критериев) качества выборки, которые позволяют обеспе-
чить формирование из исходной выборки подвыборок меньшего объема, обладающих в
системе используемых критериев наилучшими свойствами. Однако для выборок очень
большого объема применение данных методов и модели оказывается весьма затратным как
с вычислительной точки зрения, так и с точки зрения ресурсов оперативной и дисковой
памяти.
Целью данной работы является создание метода автоматического извлечения обу-
чающих выборок из исходных выборок большого объёма.
2. Постановка задачи
Пусть мы имеем исходную выборку ,X x y=< > – набор S прецедентов о зависимости
( )y x , { }sx x= , { }sy y= , 1,2,...,s S= , характеризующихся набором N входных призна-
ков { }jx , 1,2,...,j N= , где j – номер признака, и выходным признаком y . Каждый s -й
прецедент представим как ,s sx y< > , { }s s
jx x= , где s
jx – значение j -го входного, а sy –
значение выходного признака для s -го прецедента (экземпляра) выборки, { }1,2,...,sy K∈ ,
где K – число классов, 1K > .
Тогда задача сокращения объёма выборки может быть представлена как задача
формирования (выделения) из исходной выборки ,X x y=< > подвыборки ,X X X∗ ∗ ⊂ ,
меньшего объёма S S∗ < , обладающей наиболее важными свойствами исходной выборки.
Поскольку для задач автоматизации поддержки принятия диагностических реше-
ний, а также задач автоматической классификации наиболее важным является сохранение
топологии классов, то формируемая подвыборка должна обеспечивать сохранение экземп-
ляров исходной выборки, находящихся на границах классов.
3. Метод формирования и редукции выборок большого объема
Для обнаружения экземпляров, находящихся на границах классов, в общем случае необхо-
димо решить задачу кластер-анализа, что требует определения расстояний между всеми
экземплярами выборки. Это, в свою очередь, требует либо загрузки всей выборки в память
ЭВМ (что не всегда возможно из-за ограниченного объёма оперативной памяти), либо
многократных проходов по исходной выборке (что вызывает значительные затраты ма-
шинного времени), а также приводит к необходимости хранить и обрабатывать матрицу
расстояний между экземплярами большой размерности.
Для устранения отмеченных недостатков предлагается заменить обработку экземп-
ляров на обработку их описаний в виде числовых скаляров, которые характеризуют поло-
жение экземпляров в пространстве признаков. При этом, заменив экземпляры, характери-
зующиеся N признаками, на представления в виде скаляров, мы отобразим N -мерное
пространство признаков в одномерное пространство.
Исходная выборка, будучи отображённой в одномерное пространство, позволит вы-
делить на одномерной оси интервалы её значений, соответствующие кластерам разных
58 ISSN 1028-9763. Математичні машини і системи, 2013, № 1
классов в исходном N -мерном пространстве. Определив границы интервалов на одномер-
ной оси, можно найти ближайшие к ним экземпляры, которые и составят формируемую
подвыборку.
Приведенные выше идеи лежат в основе предлагаемого метода.
Этап инициализации. Задать исходную выборку данных ,X x y=< > .
Этап анализа выборки. Вначале, путём просмотра всей исходной выборки, опреде-
лить для каждого j -го признака, 1,2,...,j N= , его максимальное и минимальное значения:
}{max
,...,2,1
max s
j
Ss
j xx
=
= , },{min
,...,2,1
min s
j
Ss
j xx
=
=
а также координаты центров классов:
∑
=
==
S
s
ss
jq
q
j qyx
S
C
1
},|{
1
1,2,...,q K= ,
где qS – число экземпляров исходной выборки, принадлежащих к q -му классу.
После чего определить:
– размах диапазона значений j -го признака:
minmax
jjj xx −=δ , 1,2,...,j N= ;
– расстояния между центрами классов по j -му признаку:
,),(),( p
j
q
jjj CCqpdpqd −== 1,2,...,j N= , , 1,2,...,q p K= ;
– число интервалов значений j -го признака, S K≥ :
=
>
δ
=
++=
=
++=
=
++=
=
0;)},({min,5,0
0;)},({min,
)},({min
lnround
2,...,1,
;1,2,...,
2,...,1,
;1,2,...,
2,...,1,
;1,2,...,
pqdS
pqd
pqd
S
n
j
j
j
j
j
Kqqp
Kq
Kqqp
Kq
Kqqp
Kq
– длину интервала значений j -го признака: .
j
j
j n
δ
=θ
Этап преобразования выборки. Для каждого s-го экземпляра sx , 1,2,...,s S= опре-
делить:
– номер интервала, в который попадает экземпляр sx по оси значений j -го призна-
ка:
=θ
>θ
θ
−
+=
,01,
;0,1round
)(
min
j
j
j
j
s
j
s
j
xx
xr 1,2,...,j N= ;
ISSN 1028-9763. Математичні машини і системи, 2013, № 1 59
– нормированное интервальное расстояние от экземпляра sx до начала отсчета сис-
темы координат:
∑
=
=
N
j
s
j
s xrxR
1
2)()( либо )};({min)(
,...,2,1
s
j
Nj
s xrxR
=
=
– угол, определяющий положение экземпляра sx в пространстве интервалов значе-
ний признаков:
( )
=
∑
∑
=
=
N
j
s
j
N
j
s
j
s
xr
xr
x
1
2
1
)(
)(
arccos
1
)(
π
α ;
– индекс экземпляра sx : ).()( sss xxRI α+=
Это позволит отобразить исходную выборку на одномерную ось I . Заметим, что
при этом произойдет потеря части информации вследствие неявного квантования про-
странства признаков при преобразовании.
После чего следует сформировать набор { }' ' sX x= , элементы которого
' , ,s s sx I y s=< > необходимо отсортировать в порядке возрастания значений sI .
Этап выделения граничных экземпляров выборки. По сформированной одномерной
оси I можно выделить скопления (области пространства) близко расположенных экземп-
ляров одного класса, выделив интервалы для каждого из них.
Для этого следует:
– определить границы интервалов её значений, внутрь которых попадают экземпля-
ры, принадлежащие только к одному классу. Вначале установить число интервалов: 0k =
и номер текущего экземпляра 1s = . Затем до тех пор, пока s S< , выполнять в цикле: при-
нять: 1k k= + , установить левую границу k -го интервала: s
kl I= , установить номер клас-
са k -го интервала: s
kK y= , далее до тех пор, пока s S< и 1s
ky K+ = , наращивать
: 1s s s= + , после чего установить правую границу текущего интервала: s
kr I= . Занести
число интервалов в Ik ;
– из элементов 'X оставить только экземпляры, ближайшие к границам интервалов:
}:,...,2,1|,,'\{' s
k
s
kI
ss IrIlkksyIXX =∨==¬><= .
Этап формирования новой выборки. При просмотре исходной выборки X занести в
формируемую обучающую выборку X ∗ те экземпляры из X , номера которых содержатся в
'X :
}.'|,{:,...,2,1 ** XsyxXXSs ss ∈><∪==∀
Из экземпляров X , не вошедших в X ∗ , при необходимости можно сформировать
тестовую выборку.
4. Анализ вычислительной и пространственной сложности метода
Предложенный метод не требует хранения в оперативной памяти ЭВМ всей исходной вы-
борки: необходимо хранить только текущий обрабатываемый экземпляр и набор индексов
60 ISSN 1028-9763. Математичні машини і системи, 2013, № 1
'X , причём для ЭВМ с малым объемом оперативной памяти возможно хранение набора
'X во внешней памяти (это, однако, замедлит скорость работы метода).
Предложенный метод при эффективной программной реализации делает всего три
прохода по исходной выборке (один – на этапе анализа выборки, один – на этапе преобра-
зования выборки и один – на этапе формирования новой выборки) и порядка 2 lnS S+
проходов по оси индексов (один – на этапе выделения граничных экземпляров выборки,
один – на этапе формирования новой выборки, а остальные – при сортировке на этапе пре-
образования выборки).
Его пространственную сложность можно оценить как ( )25 6O SN S N K K+ + + − –
при полной загрузке исходной выборки в оперативную память и ( )25 7O S N K K+ + − –
при поэкземплярном доступе к исходной выборке, хранящейся во внешней памяти, при
условии, что формируемая выборка хранится во внешней памяти.
Вычислительная сложность метода может быть оценена как
( )( )( )214 6 ln 1O NS S S S N N K K+ + + + + − без учёта затрат на доступ во внешнюю па-
мять, которые определяются особенностями конкретной ЭВМ и программной реализации
метода.
Полагая из практических соображений для простоты 2,K N S= << (например,
0,001N S≈ ) и обозначив размерность исходной выборки 20,001n NS S= ≈ , а также, пола-
гая ln 8S S S≈ , получим оценки сложности метода: вычислительной –
( ) ( )20,014 14,003 14 442,81O S S O n n+ ≈ + , пространственной при поэкземплярном дос-
тупе – ( ) ( )5,007 158,34O S O n≈ .
5. Эксперименты и результаты
Для экспериментальной проверки работоспособности предложенного метода была разра-
ботана его программная реализация на языке пакета MATLAB, с помощью которой прово-
дились эксперименты по сокращению объема выборок данных для различных практиче-
ских задач [14–16], характеристики которых приведены в табл. 1.
Таблица 1. Характеристики исходных и сформированных выборок
Задача K N S n S∗ /S S∗
Диагностирование па-
тологий плода по
кардиотокограмме [14]
3 23 2126 48898 236 0,11
Предсказание типа
лесного покрова [15]
7 54 581012 31374648 51926 0,09
Результаты проведенных экспериментов подтвердили работоспособность и практи-
ческую применимость предложенного метода, а также программного обеспечения, реали-
зующего его. Как видно из табл. 1, использование предложенного метода позволяет суще-
ственно сократить объём выборки (в 9–11 раз), не требуя при этом загрузки в память ЭВМ
исходной выборки, а также многочисленных проходов по исходной выборке, что сущест-
венно снижает требования к ресурсам ЭВМ, обеспечивая при этом сохранение в сформи-
рованной подвыборке важнейших для последующего анализа топологических свойств ис-
ходной выборки.
ISSN 1028-9763. Математичні машини і системи, 2013, № 1 61
6. Заключение
В работе решена актуальная задача автоматизации формирования выборок для построения
диагностических и распознающих моделей по прецедентам.
Научная новизна результатов работы заключается в том, что впервые предложен
метод извлечения обучающих выборок, который обеспечивает сохранение в сформирован-
ной подвыборке важнейших для последующего анализа топологических свойств исходной
выборки, не требуя при этом загрузки в память ЭВМ исходной выборки, а также много-
численных проходов по исходной выборке, что позволяет существенно сократить объём
выборки, существенно уменьшить требования к ресурсам ЭВМ.
Практическая значимость результатов работы состоит в том, что разработано про-
граммное обеспечение, реализующее предложенный метод формирования и редукции вы-
борок, а также проведены эксперименты по их исследованию при решении практических
задач, результаты которых позволяют рекомендовать разработанный метод для использо-
вания на практике при решении задач интеллектуального анализа данных.
Дальнейшие исследования могут быть сосредоточены на разработке новых спосо-
бов формирования описаний экземпляров в виде обобщённых показателей, разработке
реализаций предложенного метода для параллельных вычислительных систем и распреде-
ленной обработки данных.
Работа выполнена в рамках госбюджетных научно-исследовательских тем Запорож-
ского национального технического университета "Методы, модели и устройства принятия
решений в системах распознавания образов" (№ гос. регистрации 0111U000059) и "Интел-
лектуальные информационные технологии автоматизации проектирования, моделирова-
ния, управления и диагностирования производственных процессов и систем".
СПИСОК ЛИТЕРАТУРЫ
1. Руденко О.Г. Штучні нейронні мережі / О.Г. Руденко, Є.В. Бодянський. – Харків: Компанія
СМІТ, 2006. – 404 с.
2. Рутковская Д. Нейронные сети, генетические алгоритмы и нечёткие системы / Д. Рутковская,
М. Пилкий, Л. Рутковский; пер. с польск. И.Д. Рудинского. – М.: Горячая линия – Телеком, 2004. –
452 с.
3. Интеллектуальные информационные технологии проектирования автоматизированных систем
диагностирования и распознавания образов / [С.А. Субботин, Ан.А. Олейник, Е.А. Гофман и др.;
под ред. С.А. Субботина]. – Харьков: ООО «Компания Смит», 2012. – 317 с.
4. Прогрессивные технологии моделирования, оптимизации и интеллектуальной автоматизации
этапов жизненного цикла авиационных двигателей / [А.В. Богуслаев, Ал.А. Олейник, Ан.А. Олей-
ник и др.; под ред. Д.В. Павленко, С.А. Субботина]. – Запорожье: ОАО "Мотор Сич", 2009. – 468 с.
5. Субботин С.А. Формирование выборок и анализ качества моделей на основе нейронных и нейро-
нечётких сетей в задачах диагностики и распознавания образов / С.А. Субботин. – Saarbrücken: LAP
Lambert academic publishing, 2012. – 232 с.
6. Jensen R. Computational intelligence and feature selection: rough and fuzzy approaches / R. Jensen,
Q. Shen. – Hoboken: John Wiley & Sons, 2008. – 339 p.
7. Chaudhuri A. Survey sampling theory and methods / A. Chaudhuri, H. Stenger. – New York: Chapman
& Hall, 2005. – 416 p.
8. Encyclopedia of survey research methods / ed. P.J. Lavrakas. – Thousand Oaks: Sage Publications,
2008. – Vol. 1–2. – 968 p.
9. Кокрен У. Методы выборочного исследования / У. Кокрен; пер. с англ. И.М. Сонина; под ред.
А.Г. Волкова, Н.К. Дружинина. – М.: Статистика, 1976. – 440 с.
10. Subbotin S.A. The training set quality measures for neural network learning / S.A. Subbotin // Optical
Memory and Neural Networks (Information Optics). – 2010. – Vol. 19, N 2. – P. 126 – 139.
11. Субботин С.А. Комплекс характеристик и критериев сравнения обучающих выборок для реше-
ния задач диагностики и распознавания образов / С.А. Субботин // Математичні машини і системи.
– 2010. – № 1. – С. 25 – 39.
62 ISSN 1028-9763. Математичні машини і системи, 2013, № 1
12. Субботин С.А. Критерии индивидуальной информативности и методы отбора экземпляров для
построения диагностических и распознающих моделей / С.А. Субботин // Біоніка інтелекту. – 2010.
– № 1. – С. 38 – 42.
13. Субботин С.А. Методы формирования выборок для построения диагностических моделей по
прецедентам / С.А. Субботин // Вісник Національного технічного університету "Харківський
політехнічний інститут": зб. наук. праць. – Харків: НТУ "ХПІ", 2011. – № 17. – C. 149 – 156.
14. Cardiotocography Data Set [Eлектронний ресурс]. – Режим доступу: http://archive.ics.uci.edu/
ml/datasets/Cardiotocography.
15. Covertype Data Set [Eлектронний ресурс]. – Режим доступу: http://archive.ics.uci.edu/ml/datasets/
Covertype.
Стаття надійшла до редакції 03.10.2012
|
| id | nasplib_isofts_kiev_ua-123456789-83799 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | 1028-9763 |
| language | Russian |
| last_indexed | 2025-12-07T13:13:32Z |
| publishDate | 2013 |
| publisher | Інститут проблем математичних машин і систем НАН України |
| record_format | dspace |
| spelling | Субботин, С.А. 2015-06-24T06:40:04Z 2015-06-24T06:40:04Z 2013 Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов / С.А. Субботин // Мат. машини і системи. — 2013. — № 1. — С. 56-62. — Бібліогр.: 15 назв. — рос. 1028-9763 https://nasplib.isofts.kiev.ua/handle/123456789/83799 004.93 Решена задача автоматизации формирования выборок для построения диагностических и распознающих моделей по прецедентам. Предложен метод извлечения обучающих выборок, который обеспечивает сохранение в сформированной подвыборке важнейших топологических свойств исходной выборки, не требуя при этом загрузки в память ЭВМ исходной выборки, а также многочисленных проходов исходной выборки, что позволяет сократить объём выборки и уменьшить требования к ресурсам ЭВМ. Вирішено задачу автоматизації формування виборок для побудови діагностичних і розпізнавальних моделей за прецедентами. Запропоновано метод витягу навчальних виборок, що забезпечує збереження у сформованій підвибірці найважливіших топологічних властивостей вихідної вибірки, не вимагаючи при цьому завантаження у пам'ять ЕОМ вихідної вибірки, а також численних проходів вихідної вибірки, що дозволяє скоротити обсяг вибірки і зменшити вимоги до ресурсів ЕОМ. The task of sample formation automaticity for diagnostic and recognizing model building on precedents is solved. Extraction method of training samples is offered. It maintains saving the important topological properties of the original sample in a formed sub-sample, and does not require download of the original sample to the computer memory, and the numerous passages of the original sample. This reduces the size of the sample and reduces the resource requirements of a computer. ru Інститут проблем математичних машин і систем НАН України Математичні машини і системи Обчислювальні системи Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов Метод витягу навчальних виборок з вихідних виборок великого обсягу для діагностування і розпізнавання образів Extraction method of training samples from the original samples of large volume for patterns diagnosis and recognition Article published earlier |
| spellingShingle | Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов Субботин, С.А. Обчислювальні системи |
| title | Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов |
| title_alt | Метод витягу навчальних виборок з вихідних виборок великого обсягу для діагностування і розпізнавання образів Extraction method of training samples from the original samples of large volume for patterns diagnosis and recognition |
| title_full | Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов |
| title_fullStr | Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов |
| title_full_unstemmed | Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов |
| title_short | Метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов |
| title_sort | метод извлечения обучающих выборок из исходных выборок большого объема для диагностирования и распознавания образов |
| topic | Обчислювальні системи |
| topic_facet | Обчислювальні системи |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/83799 |
| work_keys_str_mv | AT subbotinsa metodizvlečeniâobučaûŝihvyborokizishodnyhvyborokbolʹšogoobʺemadlâdiagnostirovaniâiraspoznavaniâobrazov AT subbotinsa metodvitâgunavčalʹnihviborokzvihídnihviborokvelikogoobsâgudlâdíagnostuvannâírozpíznavannâobrazív AT subbotinsa extractionmethodoftrainingsamplesfromtheoriginalsamplesoflargevolumeforpatternsdiagnosisandrecognition |