Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки
Обоснован способ сравнения дискриминантных функций с разбиением выборок наблюдений на обучающие и проверочные подвыборки. Получены условия существования оптимального множества признаков, которые зависят от параметров генеральных совокупностей и объемов выборок. Выявлены закономерности упрощения опти...
Saved in:
| Published in: | Індуктивне моделювання складних систем |
|---|---|
| Date: | 2011 |
| Main Authors: | , |
| Format: | Article |
| Language: | Russian |
| Published: |
Міжнародний науково-навчальний центр інформаційних технологій і систем НАН та МОН України
2011
|
| Online Access: | https://nasplib.isofts.kiev.ua/handle/123456789/45945 |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| Journal Title: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Cite this: | Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки / А.П. Сарычев, Л.В. Сарычева // Індуктивне моделювання складних систем: Зб. наук. пр. — К.: МННЦ ІТС НАН та МОН України, 2011. — Вип. 3. — С. 209-215. — Бібліогр.: 4 назв. — рос. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1860084059411054592 |
|---|---|
| author | Сарычев, А.П. Сарычева, Л.В. |
| author_facet | Сарычев, А.П. Сарычева, Л.В. |
| citation_txt | Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки / А.П. Сарычев, Л.В. Сарычева // Індуктивне моделювання складних систем: Зб. наук. пр. — К.: МННЦ ІТС НАН та МОН України, 2011. — Вип. 3. — С. 209-215. — Бібліогр.: 4 назв. — рос. |
| collection | DSpace DC |
| container_title | Індуктивне моделювання складних систем |
| description | Обоснован способ сравнения дискриминантных функций с разбиением выборок наблюдений на обучающие и проверочные подвыборки. Получены условия существования оптимального множества признаков, которые зависят от параметров генеральных совокупностей и объемов выборок. Выявлены закономерности упрощения оптимальной дискриминантной функции при уменьшении объемов выборок и при увеличении дисперсий признаков.
Обґрунтовано спосіб порівняння дискримінантних функцій з розбиттям вибірок спостережень на навчальні й перевірні підвибірки. Отримано умови існування оптимальної множини ознак, які залежать від параметрів генеральних сукупностей і обсягів вибірок. Виявлено закономірності спрощення оптимальної дискримінантної функції при зменшенні обсягів вибірок і при збільшенні дисперсій ознак.
The way of comparison of discriminant functions with dividing samples observations on training and testing subsamples is proved. Conditions of existence of optimum set of features which depend on parameters of general sets and volumes samples are received. Laws of simplification of optimum discriminant function at decrease of volumes samples and at increase of dispersions of features are revealed.
|
| first_indexed | 2025-12-07T17:18:24Z |
| format | Article |
| fulltext |
Оценивание качества дискриминантных функций
Індуктивне моделювання складних систем, випуск 3, 2011 209
УДК 519.25
ОЦЕНИВАНИЕ КАЧЕСТВА ДИСКРИМИНАНТНЫХ ФУНКЦИЙ
С РАЗБИЕНИЕМ НАБЛЮДЕНИЙ НА ОБУЧАЮЩИЕ И
ПРОВЕРОЧНЫЕ ПОДВЫБОРКИ
А.П. Сарычев1, Л.В. Сарычева2
1 Институт технической механики НАНУ и ГКАУ, г. Днепропетровск
2 Национальный горный университет МОН Украины, г. Днепропетровск
Sarychev@prognoz.dp.ua, Sarycheval@nmu.dp.ua
Обґрунтовано спосіб порівняння дискримінантних функцій з розбиттям вибірок
спостережень на навчальні й перевірні підвибірки. Отримано умови існування оптимальної
множини ознак, які залежать від параметрів генеральних сукупностей і обсягів вибірок.
Виявлено закономірності спрощення оптимальної дискримінантної функції при зменшенні
обсягів вибірок і при збільшенні дисперсій ознак.
Ключові слова: метод групового урахування аргументів, невизначеність за складом ознак,
критерій якості лінійної дискримінантної функції.
The way of comparison of discriminant functions with dividing samples observations on
training and testing subsamples is proved. Conditions of existence of optimum set of features which
depend on parameters of general sets and volumes samples are received. Laws of simplification of
optimum discriminant function at decrease of volumes samples and at increase of dispersions of
features are revealed.
Keywords: Group Method of Data Handling, uncertainty on structure of features, criterion of linear
discriminant function quality.
Обоснован способ сравнения дискриминантных функций с разбиением выборок
наблюдений на обучающие и проверочные подвыборки. Получены условия существования
оптимального множества признаков, которые зависят от параметров генеральных
совокупностей и объемов выборок. Выявлены закономерности упрощения оптимальной
дискриминантной функции при уменьшении объемов выборок и при увеличении дисперсий
признаков.
Ключевые слова: метод группового учета аргументов, неопределенность по составу
признаков, критерий качества линейной дискриминантной функции.
Введение
Решение задачи дискриминантного анализа в условиях структурной
неопределенности по составу признаков предполагает принятие какого-либо
способа сравнения дискриминантных функций (ДФ), построенных на
различных множествах признаков. Два способа сравнения популярны в
приложениях. Первый основан на разбиении наблюдений на обучающие и
проверочные подвыборки. В этом способе обучающие подвыборки
используются для оценивания коэффициентов ДФ, а проверочные – для
оценивания ее качества классификации. Второй – способ скользящего экзамена,
в котором в качестве проверочных выступают наблюдения, поочередно
исключаемые из обучающей выборки. В литературе эти способы традиционно
трактуются как эвристические приемы, хотя факт существования в них
А.П.Сарычев, Л.В.Сарычева
Індуктивне моделювання складних систем, випуск 3, 2011 210
оптимального множества признаков неоднократно подтверждался методом
статистических испытаний. В рамках метода группового учета аргументов
(МГУА) проведено аналитическое исследование этих способов [1–2].
1. Способ сравнения дискриминантных функций с разбиением
наблюдений на обучающие и проверочные подвыборки
Пусть на этапе с номером ),...,2,1( mss = алгоритма полного перебора
сочетаний признаков в ДФ может быть включено только s компонент из
множества X , составляющих текущее анализируемое множество V . Пусть V
соответствуют: 1) IV и IIV – )( Ins× - и )( IIns× -матрицы наблюдений
из генеральных совокупностей IP и IIP ; 2) Iν и IIν – )1( ×s -векторы
математических ожиданий для IP и IIP ; 3) VΣ – ковариационная )( ss× -
матрица. Рассмотрим оценку расстояния Махаланобиса, рассчитываемую с
учетом разбиения наблюдений на обучающие и проверочные подвыборки.
Вычислим оценки коэффициентов ДФ для множества компонент V на
обучающей подвыборке A и используем их для оценивания расстояния
Махаланобиса как отношение межгрупповой вариации к внутригрупповой
вариации на проверочной подвыборке B :
ABA
ABBBBA
AB VD ^
T
^
^
T
II
~
I
~
II
~
I
~
T
^
2 )()()(
dSd
dvvvvd −−
= . (1)
В (1) )1( ×s -вектор A
^
d представляет собой рассчитанную на подвыборке
A фишеровскую оценку коэффициентов ДФ, которая построена в пространстве
компонент множества V
)( II
~
I
~
1
^
AAAA vvSd −= − , (2)
где )1( ×s -векторы AI
~
v и AII
~
v – оценки математических ожиданий Iν и IIν :
III,,)(
1
1
~
== ∑
=
− kn
kAn
i
kiAkAkA Vv ; (3)
)( ss× -матрица AS – несмещенная оценка ковариационной матрицы VΣ
][2)( T
IIII
T
II
1
III AAAAAAA nn vvvvS +−−= − . (4)
В (4) )II,I( =kkAv – )( kns× -матрицы, составленные из отклонений
наблюдений kAV компонент множества V от оценок kA
~
v
],...,,[
~~
2
~
1 kAAknkAAkkAAkkA k
vVvVvVv −−−= . (5)
Оценивание качества дискриминантных функций
Індуктивне моделювання складних систем, випуск 3, 2011 211
В (1) )1( ×s -векторы BI
~
v и BII
~
v вычисляются аналогично (3), а )( ss× -
матрица BS – аналогично (4)–(5); BBAA nnnn IIIIII и,и – объемы обучающих
и проверочных подвыборок соответственно такие, что выполняется
IIIIIIIII и nnnnnn BABA =+=+ . Используя (2), для (1) получаем
)()(
)())(()()(
II
~
I
~
11T
II
~
I
~
II
~
I
~
1T
II
~
I
~
II
~
I
~
1T
II
~
I
~
2
AAABAAA
AAABBBBAAA
AB VD
vvSSSvv
vvSvvvvSvv
−−
−−−−
=
−−
−−
. (6)
Теорема. Для математического ожидания случайной величины )(2 VDAB
выполняется
1
1)](/)1([)}({ 1
12
12
22
−
−
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
−
−
+
+τ
−−−τ
−τ= −
−
−
r
sr
sr
rc
cs
csrrsVDE B
AV
AV
VAB , (7)
где )()( III
1T
III
2 ννΣνν −−=τ −
VV – расстояние Махаланобиса для множества V ;
)(),(,2 1
II
1
I
11
II
1
I
1
III
−−−−−− +=+=−+= BBBAAAAA nncnncnnr .
Справедливость теоремы следует из следующих утверждений: 1) оценки,
полученные на подвыборках A и B , независимы; 2) оценки математических
ожиданий (3) и ковариационной матрицы (4) независимы; 3) AS – случайная
)( ss× -матрица, имеет распределение Уишарта с r степенями свободы.
Определение 1. Оптимальным множеством компонент (признаков)
называется множество OPTV :
)}({maxarg 2 VDEV AB
XV
OPT
⊆
= . (8)
Определение 2. Оптимальной по количеству и составу компонент
называется фишеровская дискриминантная функция, построенная на множестве
OPTV .
Доказано существование оптимального множества признаков в способе
с разбиением наблюдений на обучающую и проверочную подвыборки, и
сформулированы условия, при выполнении которых оптимальная ДФ
упрощается по числу входящих в нее компонент.
С этой целью исследована зависимость )}({ VDE 2
AB от состава множества
V . Множество компонент X может быть разбито на непересекающиеся
подмножества RVRRXX ~~ ooo
UUU == : 1) ∅≠
o
X (∅ – пустое множество) –
множество компонент (
o
m – их число), для математических ожиданий которых
А.П.Сарычев, Л.В.Сарычева
Індуктивне моделювання складних систем, випуск 3, 2011 212
выполнено
o
II
o
I
o
2,...,1,,χχ mhhh =≠ ; 2)
o
R – множество компонент, для
математических ожиданий которых выполнено
o
II
o
I
o
2,...,1,,ρρ lhhh == , где
o
l – их
число, и каждая компонента из множества
o
R статистически зависит хотя бы от
одной компоненты из множества
o
X (множество
o
R может быть пустым);
3) R~ – множество компонент, для математических ожиданий которых
выполнено lhIIhIh
~2,...,1,,ρ~ρ~ == , где l~ – их число, и каждая компонента из
множества R~ статистически не зависит от любой из компонент множества
o
X
(множество R~ может быть пустым).
Сформулированы в виде лемм соотношения между расстоянием
Махаланобиса для множества компонент
ooo
RXV U= и расстоянием
Махаланобиса для произвольного текущего анализируемого множества
компонент XV ⊆ [1–4]. Для случая известных параметров генеральных
совокупностей из сформулированных лемм следует: 1) любая компонента из
множества
o
X необходима в том смысле, что ее включение в текущее
множество компонент V увеличивает расстояние Махаланобиса 2
Vτ ; 2) любая
компонента из множества
o
R необходима в том смысле, что ее включение в V
увеличивает расстояние Махаланобиса 2
Vτ ; 3) любая компонента из множества
R~ избыточна в том смысле, что ее включение в множество V не увеличивает
расстояния Махаланобиса 2
Vτ .
2. Условие редукции (упрощения) оптимальной дискриминантной
функции
В практических приложениях параметры генеральных совокупностей, как
правило, неизвестны, но могут быть получены как статистические оценки по
обучающим выборкам наблюдений ограниченного объема. Известно, что если
применить построенное правило классификации к обучающей выборке, то
оценка качества распознавания будет завышена по математическому ожиданию
по сравнению с той же оценкой качества на независимых от обучения данных.
Способ с разбиением наблюдений на обучающие и проверочные подвыборки
дает незавышенные оценки качества распознавания. Опыт практических
применений и тестовые исследования на основе метода статистических
испытаний показывают, что в этой схеме: 1) с увеличением объема выборок
наблюдений увеличивается количество компонент во множестве 0V , на котором
достигается наилучшее качество распознавания, а с уменьшением объема
Оценивание качества дискриминантных функций
Індуктивне моделювання складних систем, випуск 3, 2011 213
выборок наблюдений количество компонент в 0V уменьшается;
2) с увеличением расстояния Махаланобиса 2
Xτ между генеральными
совокупностями (из которых получены выборки наблюдений) увеличивается
количество компонент во множестве 0V , а с уменьшением этого расстояния
количество компонент в таком множестве уменьшается. Проведенные
аналитические исследования объясняют эти эмпирически установленные
закономерности.
Сформулируем условие редукции (упрощения) оптимальной ДФ для
частного случая независимого признака. Пусть множество V таково, что
выполняется
oo
xVX U= , где
oo
Xx∈ (в ДФ пропущен один признак). Учитывая
(7), получаем
=−= )}({)}({)Δ( 2
o
VDEXDEV AB
2
AB
−
−
−
⎟
⎟
⎟
⎟
⎠
⎞
⎜
⎜
⎜
⎜
⎝
⎛
−
−
+
+τ
−−−τ
−τ −
−
−
1
1)](/)1([ o
o
1
1
o
2
1
oo
2
2
o
o
o r
mr
mr
rc
cm
cmrrm
B
A
X
A
X
X
1
1
1
1
)1(
)]1(/)1()1[(
o
o
1
1
o
2
1
oo
2
2
−
+−
⎟
⎟
⎟
⎠
⎞
⎜
⎜
⎜
⎝
⎛
+−
−
+
−+τ
+−−−−τ
−τ− −
−
−
r
mr
mr
rc
cm
cmrrm
B
AV
AV
V . (9)
В соответствии с вышеупомянутыми леммами для расстояний
Махаланобиса множеств V и
o
X выполняется соотношение: 222
o γ−τ=τ
X
V , где
2
II
o
I
o
22 )(γ o χ−χσ= −
x
– составляющая расстояния Махаланобиса, обусловленная
пропущенным признаком
oo
Xx∈ (при условии, что
o
x статистически не зависим
с другими компонентами из
o
X ). С учетом этого, ограничившись точностью
)/1( kn и пренебрегая членами порядка )/1( 2
kn , получаем
⋅
⎥
⎦
⎤
⎢
⎣
⎡
−+⎟
⎠
⎞
⎜
⎝
⎛ γ−τ⋅⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
+τ
=
−− 1
o
221
o
2 )1(
1)Δ(
oo A
X
A
X
cmcm
V ( ) +γ⋅
⎪⎩
⎪
⎨
⎧
⎟
⎟
⎟
⎠
⎞
⎜
⎜
⎜
⎝
⎛
⋅⋅
−
−
+
−
+−
⋅τ− − 221
o
oo
2
11
1
o A
X
cm
r
mr
r
mr
−γ⋅
⎟
⎟
⎟
⎠
⎞
⎜
⎜
⎜
⎝
⎛
⋅⋅
−
−
⋅+
−
+−
⋅τ⋅τ+ − 21
o
oo
22
1
2
1
2
oo A
XX
cm
r
mr
r
mr
⎪⎭
⎪
⎬
⎫
⎟
⎟
⎟
⎠
⎞
⎜
⎜
⎜
⎝
⎛
⋅
−
−
+
−
⋅τ⋅⎟
⎠
⎞
⎜
⎝
⎛τ −1
o
2
2
2
11
1
oo A
XX
c
r
mr
r
.(10)
А.П.Сарычев, Л.В.Сарычева
Індуктивне моделювання складних систем, випуск 3, 2011 214
Величина )Δ(V может быть как положительной, так и отрицательной.
Если величина 0)Δ( >V , то признак
o
x необходимо включать в ДФ. Если
величина 0)Δ( <V , то признак
o
x не следует включать в ДФ, поскольку это
приведет к уменьшению величины 2
ABD , т.е. добавление признака
oo
Xx∈ не
улучшает качество ДФ по рассматриваемому критерию.
Условие 0)Δ( <V является условием редукции (упрощения) ДФ,
оптимальной по количеству и составу признаков. Оно представляет собой
условие отрицательной определенности квадратичного трехчлена относительно
2γ в фигурных скобках (10). Пороговым значением для 2γ , ниже которого
возможна редукция ДФ, является значение:
1
o
o
2
1
2
22
1
1
1
)(
o
o
o
−
−
+
⎟⎟
⎟
⎠
⎞
⎜⎜
⎜
⎝
⎛
−
+−
τ
+
⎟
⎟
⎟
⎠
⎞
⎜
⎜
⎜
⎝
⎛
−
τ
⋅τ=γ
A
X
A
X
X
por
cm
r
mr
c
r
. (11)
На рисунке представлены зависимости порогового значения (11) от объема
выборок n для набора расстояний Махаланобиса 2
o
X
τ )18,...,8,6( 2
o =τ
X
при 6
o
=m .
Рисунок 1 – Зависимости порогового значения пор)( 2γ
от объема выборок n
por)( 2γ
n
Оценивание качества дискриминантных функций
Індуктивне моделювання складних систем, випуск 3, 2011 215
Отметим, что в асимптотике при ∞→An ( ∞→r ) условие редукции не
выполняется, поскольку 0)( 2 =γ por , а 02 >γ , т.е.
o
XVOPT = .
3. Выводы
Обоснован способ сравнения дискриминантных функций с разбиением
выборок наблюдений на обучающие и проверочные подвыборки. Несмотря на
успешное применение этого способа на практике и неоднократное
подтверждение его работоспособности методом статистических испытаний, он
традиционно считался эвристическим приём.
Получены условия существования оптимального множества признаков,
зависящие от параметров генеральных совокупностей и объемов выборок.
Выявлены закономерности упрощения оптимальной дискриминантной
функции при уменьшении объемов выборок и при увеличении дисперсий
признаков. Показано, что в условиях структурной неопределенности и
отсутствия априорных оценок ковариационной матрицы признаков применение
этого способа позволяет решать задачу поиска дискриминантной функции
оптимальной сложности.
Литература
1. Сарычев А. П. Схема дискриминантного анализа с обучающими
и проверочными подвыборками наблюдений / А. П. Сарычев // Автоматика. –
1990. – № 1. – С. 32–41.
2. Мирошниченко Л. В. Схема скользящего экзамена для поиска
оптимального множества признаков в задаче дискриминантного анализа
/ Л. В. Мирошниченко, А. П. Сарычев // Автоматика. – 1992. – № 1. – С. 35–44.
3. Сарычев А. П. Решение задачи дискриминантного анализа в условиях
структурной неопределенности на основе метода группового учета аргументов
/ А. П. Сарычев // Проблемы управления и информатики. – 2008. – № 3. –
C. 100–112.
4. Сарычев А. П. Идентификация состояний структурно-неопределенных
систем / А. П. Сарычев – Днепропетровск : Институт технической механики
НАН Украины и НКА Украины, 2008. – 268 с.
|
| id | nasplib_isofts_kiev_ua-123456789-45945 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | XXXX-0044 |
| language | Russian |
| last_indexed | 2025-12-07T17:18:24Z |
| publishDate | 2011 |
| publisher | Міжнародний науково-навчальний центр інформаційних технологій і систем НАН та МОН України |
| record_format | dspace |
| spelling | Сарычев, А.П. Сарычева, Л.В. 2013-06-20T20:10:28Z 2013-06-20T20:10:28Z 2011 Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки / А.П. Сарычев, Л.В. Сарычева // Індуктивне моделювання складних систем: Зб. наук. пр. — К.: МННЦ ІТС НАН та МОН України, 2011. — Вип. 3. — С. 209-215. — Бібліогр.: 4 назв. — рос. XXXX-0044 https://nasplib.isofts.kiev.ua/handle/123456789/45945 519.25 Обоснован способ сравнения дискриминантных функций с разбиением выборок наблюдений на обучающие и проверочные подвыборки. Получены условия существования оптимального множества признаков, которые зависят от параметров генеральных совокупностей и объемов выборок. Выявлены закономерности упрощения оптимальной дискриминантной функции при уменьшении объемов выборок и при увеличении дисперсий признаков. Обґрунтовано спосіб порівняння дискримінантних функцій з розбиттям вибірок спостережень на навчальні й перевірні підвибірки. Отримано умови існування оптимальної множини ознак, які залежать від параметрів генеральних сукупностей і обсягів вибірок. Виявлено закономірності спрощення оптимальної дискримінантної функції при зменшенні обсягів вибірок і при збільшенні дисперсій ознак. The way of comparison of discriminant functions with dividing samples observations on training and testing subsamples is proved. Conditions of existence of optimum set of features which depend on parameters of general sets and volumes samples are received. Laws of simplification of optimum discriminant function at decrease of volumes samples and at increase of dispersions of features are revealed. ru Міжнародний науково-навчальний центр інформаційних технологій і систем НАН та МОН України Індуктивне моделювання складних систем Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки Article published earlier |
| spellingShingle | Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки Сарычев, А.П. Сарычева, Л.В. |
| title | Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки |
| title_full | Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки |
| title_fullStr | Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки |
| title_full_unstemmed | Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки |
| title_short | Оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки |
| title_sort | оценивание качества дискриминантных функций с разбиением наблюдений на обучающие и проверочные подвыборки |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/45945 |
| work_keys_str_mv | AT saryčevap ocenivaniekačestvadiskriminantnyhfunkciisrazbieniemnablûdeniinaobučaûŝieiproveročnyepodvyborki AT saryčevalv ocenivaniekačestvadiskriminantnyhfunkciisrazbieniemnablûdeniinaobučaûŝieiproveročnyepodvyborki |