Дискриминантный анализ по независимым признакам в условиях структурной неопределенности
Рассмотрена задача поиска дискриминантной функции оптимальной сложности в условиях неза- висимых признаков. Рассмотрен способ сравнения дискриминантных функций, который основан на разбиении наблюдений на обучающие и проверочные подвыборки: обучающие подвыборки используются для оценивания коэффици...
Gespeichert in:
| Datum: | 2008 |
|---|---|
| 1. Verfasser: | |
| Format: | Artikel |
| Sprache: | Russisch |
| Veröffentlicht: |
Інститут проблем штучного інтелекту МОН України та НАН України
2008
|
| Schlagworte: | |
| Online Zugang: | https://nasplib.isofts.kiev.ua/handle/123456789/6919 |
| Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Zitieren: | Дискриминантный анализ по независимым признакам в условиях структурной неопределенности / А.П. Сарычев // Штучний інтелект. — 2008. — № 3. — С. 208-216. — Бібліогр.: 13 назв. — рос. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1859658837459468288 |
|---|---|
| author | Сарычев, А.П. |
| author_facet | Сарычев, А.П. |
| citation_txt | Дискриминантный анализ по независимым признакам в условиях структурной неопределенности / А.П. Сарычев // Штучний інтелект. — 2008. — № 3. — С. 208-216. — Бібліогр.: 13 назв. — рос. |
| collection | DSpace DC |
| description | Рассмотрена задача поиска дискриминантной функции оптимальной сложности в условиях неза-
висимых признаков. Рассмотрен способ сравнения дискриминантных функций, который основан на
разбиении наблюдений на обучающие и проверочные подвыборки: обучающие подвыборки используются
для оценивания коэффициентов дискриминантной функции, а проверочные подвыборки – для оценивания
ее качества классификации. В данной статье общие результаты, полученные автором, применены для
частного случая, когда признаки статистически независимы.
Розглянуто задачу пошуку дискримінантної функції оптимальної складності в умовах незалежних ознак.
Розглянуто спосіб порівняння дискримінантних функцій, що заснований на розбивці спостережень на
навчальні і перевірні підвибірки: навчальні підвибірки використовуються для оцінювання коефіцієнтів
дискримінантної функції, а перевірні підвибірки – для оцінювання її якості класифікації. У даній статті
загальні результати, які отримані автором, застосовані для часткового випадку, коли ознаки статистично
незалежні.
The problem of search of a discriminant function of optimum complexity in conditions of independent
futures is considered. Comparison of quality of discriminant functions is based on partition of initial sample
of the data on learning and checking parts: on learning subsample the coefficients of discriminant functions
estimate, and on checking subsample the quality of discriminant functions estimate. In the given article the
general rezults obtained by the author, are applied for a particular case, when the futures are statistically
independent.
|
| first_indexed | 2025-11-30T09:18:41Z |
| format | Article |
| fulltext |
«Искусственный интеллект» 3’2008 208
3С
УДК 519.25
А.П. Сарычев
Институт технической механики НАН Украины и НКА Украины, г. Днепропетровск
Sarychev@prognoz.dp.ua
Дискриминантный анализ
по независимым признакам
в условиях структурной неопределенности
Рассмотрена задача поиска дискриминантной функции оптимальной сложности в условиях неза-
висимых признаков. Рассмотрен способ сравнения дискриминантных функций, который основан на
разбиении наблюдений на обучающие и проверочные подвыборки: обучающие подвыборки используются
для оценивания коэффициентов дискриминантной функции, а проверочные подвыборки – для оценивания
ее качества классификации. В данной статье общие результаты, полученные автором, применены для
частного случая, когда признаки статистически независимы.
Решение задачи дискриминантного анализа в условиях структурной неопределен-
ности – с определением оптимального множества признаков – предполагает принятие
какого-либо способа сравнения дискриминантных функций, построенных на различ-
ных множествах признаков.
Популярным в приложениях является способ сравнения, основанный на
разбиении наблюдений на обучающие и проверочные подвыборки: обучающие под-
выборки используются для оценивания коэффициентов дискриминантной функции,
а проверочные подвыборки – для оценивания ее качества классификации. Этот спо-
соб традиционно трактуется как эвристический прием, хотя факт существования для
него оптимального множества признаков неоднократно подтвержден методом статисти-
ческих испытаний [1-7]. В рамках метода группового учета аргументов (МГУА) для
этого способа аналитически исследован критерий качества для сравнения дискрими-
нантных функций, построенных на различных множествах признаков [8-11]. В дан-
ной статье результаты, полученные в [8-11], применены для частного случая, когда
признаки статистически независимы.
Для решения задачи дискриминантного анализа в условиях структурной
неопределенности кроме способа сравнения дискриминантных функций требуется
указать алгоритм генерирования наборов признаков, включаемых в дискрими-
нантную функцию. Предполагается, что в качестве такового принят полный перебор
всех возможных сочетаний признаков.
Постановка задачи
Предположим, что
kk k k2 kn1X = [x ,x , … ,x ] (1)
– выборка kn независимых наблюдений m -мерного случайного вектора з k из
генеральной совокупности kP , имеющего m -мерное нормальное распределение с
Дискриминантный анализ по независимым признакам...
«Штучний інтелект» 3’2008 209
3С
неизвестным математическим ожиданием kч и неизвестной невырожденной кова-
риационной матрицей XУ
k m k Xз ~N (ч ,У ) , (2)
где k – номер I или II генеральных совокупностей IP и IIP , причем I IIч ч≠ .
Согласно предположению (2) для наблюдений (1) выполняется
ki k ki kX =ч +о , k=I,II, i=1, 2,...,n , (3)
где ki m m Xо ~N (0 ,У ) – независимые случайные векторы, распределенные по m-мерному
нормальному закону с нулевым математическим ожиданием и ковариационной
матрицей XУ
T
ki m ki ki X kE{о }=0 ; E{о о }=У ; i=1, 2,...,n ; k=I,II; (4)
1 2
T
ki ki (mЧm) 1 2 k 1 2E{о о }=O ; i ,i =1, 2,...,n ; i №i ; (5)
1 2
T
Ii IIi (mЧm) 1 2 kE{о о }=O ; i ,i =1, 2,...,n , (6)
где m0 – нулевой m -мерный вектор-столбец и (mЧm)O – нулевая )( mm× -матрица,
}{⋅E – знак математического ожидания.
Предположим, что априорные вероятности появления наблюдений из IP и IIP
известны и соответственно равны Iр и IIр , причем 1=+ III рр .
Предположим, что введены цены ошибочных классификаций: )/( IIIc – цена
ошибочной классификации наблюдения из совокупности IIP в качестве наблюдения
из IP , а )/( IIIc – цена ошибочной классификации наблюдения из совокупности IP
в качестве наблюдения из IIP . Правильная классификация не оценивается.
Линейная дискриминантная функция, при которой в указанных предположе-
ниях ожидаемая ошибка классификации минимальна, имеет вид
T T
I II 0R(x)=x д-0,5(ч +ч ) д-lnс , (7)
где параметр 0с определяется ценами ошибочных классификаций и априорными
вероятностями появления наблюдений
1
0 ))/(()/( −ππ= III IIIcIIIcс , (8)
а коэффициенты дискриминантной функции д определяются параметрами генераль-
ных совокупностей
-1
X I IIд=У (ч -ч ). (9)
Решающее правило формулируется следующим образом: если для наблюдения
*x выполняется *(x ) 0R ≥ , то *x IP∈ – оно относится к первой группе; если *(x ) 0R < ,
то *x IIP∈ – оно относится ко второй группе.
Получение по выборочным наблюдениям (1) – (3) оценок коэффициентов д в
дискриминантной функции (7) с последующим статистическим анализом является
задачей дискриминантного анализа, поставленной в узком смысле.
Фишеровской оценкой д является оценка
^ ~ ~
-1
I IId =S ( x - x ), (10)
Сарычев А.П.
«Искусственный интеллект» 3’2008 210
3С
где
~
Ix и
~
IIx – оценки математических ожиданий Iч и IIч
I IIn n~ ~
-1 -1
I I Ii II II IIi
i=1 i=1
x =(n ) X , x =(n ) X∑ ∑ ; (11)
матрица S – оценка ковариационной матрицы XУ
-1 T T
I II I I II IIS=(n +n -2) [x x +x x ], (12)
а Ix и IIx – )( Inm × - и )( IInm × -матрицы, составленные из отклонений наблюдений
(1) и (3) от оценок
~
Ix и
~
IIx соответственно
I
~ ~ ~
II I,1 I I,2 I I,nx =[X - x ,X - x ,...,X - x ], (13)
II
~ ~ ~
IIII II,1 II II,2 II II,nx =[X - x ,X - x ,...,X - x ]. (14)
Оценка (10) является решением задачи максимизации функционала
~ ~ ~ ~
T T
I II I II
T d
d ( x - x )( x - x ) dЦ= ® max
d S d
(15)
при ограничении
~ ~
T
I II
T
( x - x ) d =1.
d S d
(16)
Значение функционала (15) при оптимальном значении
^ ~ ~
-1
I IId =S ( x - x ) –
~ ~ ~ ~
2 T -1
III II ID =( x - x ) S ( x - x ) (17)
является выборочной оценкой расстояния Махаланобиса
2 T -1
X I II X I IIф =(ч -ч ) У (ч -ч ) . (18)
Для математического ожидания величины 2D выполняется:
,
1
}{ 122 −+τ
−−
= cm
mr
rDE X (19)
где )(,2 1
II
1
I
1
III
−−− +=−+= nncnnr .
Пусть X – множество m компонент векторов Iз и IIз , над которыми
проведены наблюдения;
o
X – множество )1(
oo
mmm <≤ компонент векторов Iз и IIз ,
для математических ожиданий которых выполнено: ,,...,2,1,
o
II
o
I
o
mjчч jj =≠ причем
множество
o
X неизвестно, известно лишь, что XX ⊆
o
.
Если априорно неизвестно, какие именно компоненты из множества X следует
включать в дискриминантную функцию, то говорят о задаче дискриминантного
анализа, поставленной в широком смысле. В этом случае по наблюдениям IX и IIX
требуется определить множество компонент, которые необходимо включать в
дискриминантную функцию, и оценить коэффициенты линейной дискриминантной
функции в пространстве этих компонент.
Дискриминантный анализ по независимым признакам...
«Штучний інтелект» 3’2008 211
3С
Известно [5-7], что оценка расстояния Махаланобиса (17) не может быть
использована для решения задачи дискриминантного анализа, поставленной в
широком смысле, поскольку эта оценка увеличивается при добавлении новых
компонент в дискриминантную функцию (в решающее правило). Распространенным
приемом в этом случае является назначение «порога» для величины приращения
оценки расстояния Махаланобиса (17) при добавлении новой компоненты в
дискриминантную функцию [12], [13]. Но такое назначение привносит субъектив-
ность в получаемое решение.
Воспользуемся результатами работ [8-11] при дополнительном предполо-
жении о том, что признаки статистически независимы, т.е. ковариационная матрица
XУ в (2), (4), (9), (18) имеет диагональный вид.
1. Критерий качества дискриминантных функций
для способа с разбиением наблюдений на обучающие
и проверочные подвыборки
Пусть на этапе с номером ),...,2,1( mss = алгоритма полного перебора
сочетаний признаков в дискриминантную функцию может быть включено только s
компонент из множества kX , составляющих текущее анализируемое множество .V
Пусть множеству компонент V соответствуют: 1) I IIV и V – )( Ins × - и )( IIns × -
матрицы наблюдений из генеральных совокупностей III и PP ; 2) Iн и IIн – )1( ×s -
векторы математических ожиданий для наблюдений из III и PP ; 3) VУ – ковариа-
ционная )( ss × -матрица. Рассмотрим оценку расстояния Махаланобиса, рассчиты-
ваемую с учетом разбиения наблюдений на обучающие и проверочные подвыборки
T^ ~ ~ ~ ~ ^
T
A IB IIB IB IIB A2
AB T^ ^
A AB
d ( v v ) ( v v ) dD (V) = .
d S d
− − (20)
В (20) (sЧ1) -вектор
^
Ad представляет собой рассчитанную на подвыборке A фише-
ровскую оценку коэффициентов дискриминантной функции, которая построена в
пространстве компонент множества V
^ ~ ~
-1
A IA IIAAd = S ( v v ),− (21)
где )1( ×s -векторы
~
IAv и
~
IIAv – оценки математических ожиданий Iн и IIн
kAn~
-1
kA kA kiA
i=1
v = (n ) V , k = I,II;∑ (22)
)( ss × -матрица AS – несмещенная оценка ковариационной матрицы VУ
-1 T T
A IA IIA IA IA IIA IIAS = (n - n - 2) [v v +v v ]. (23)
В (23) kAv (k=I,II) – )( kns × -матрицы, составленные из отклонений наблюдений
kAV компонент множества V от оценок
~
kAv
k
~ ~ ~
kA kA kAkA k1A k2A kn Av = [V - v ,V - v ,...,V - v ]. (24)
Сарычев А.П.
«Искусственный интеллект» 3’2008 212
3С
В (20) )1( ×s -векторы
~
IBv и
~
IIBv вычисляются аналогично (22), а )( ss × -матрица BS –
аналогично (23) – (24); BBAA nnnn IIIIII и,и – объемы обучающих и проверочных
подвыборок соответственно такие, что выполняется
.и IIIIIIIII nnnnnn BABA =+=+
Используя (21), для (20) получаем
~ ~ ~ ~ ~ ~ ~ ~
T -1 T -1
IA IIA IB IIB IB IIB IA IIA2 A A
AB ~ ~ ~ ~
T -1 -1
IA IIA IA IIAA B A
( v - v ) S ( v - v )( v - v ) S ( v - v )D (V) = .
( v - v ) S S S ( v - v )
(25)
Для математического ожидания случайной величины (25) с учетом результатов [9],
[11] выполняется
2 1
2 2 11 1 1 1
2 1
1 1
[ ( 1) / ( )] 1{ ( )}
1
V A
AB V B
V A
s r r s c r r sE D V c
s c r s r
ττ
τ
−
−
−
− − − − −
= − + + − −
, (26)
где
)(),(,2 1
II
1
I
11
II
1
I
1
III1
−−−−−− +=+=−+= BBBAAAAA nncnncnnr ; (27)
2 T -1
V I II V I IIф = (н -н ) У (н -н ) – расстояние Махаланобиса для множества компонент .V
2. Исследование математического ожидания
критерия качества дискриминантной функции
в зависимости от состава признаков
Покажем, что критерий качества дискриминантной функции (20) позволяет
решать задачу дискриминантного анализа, поставленную в широком смысле.
Покажем существование оптимального множества признаков для способа с
разбиением наблюдений на обучающие и проверочные подвыборки и сформулируем
условия, при которых оптимальная дискриминантная функция упрощается по числу
входящих в нее признаков. С этой целью исследуем зависимость величины )(2 VDAB
от состава множества V .
Определение 1. Оптимальным множеством признаков называется множе-
ство OPTV :
)}({maxarg 2 VDEV AB
XV
OPT
⊆
= . (28)
Определение 2. Оптимальной по количеству и составу признаков называется
фишеровская дискриминантная функция, построенная на множестве OPTV .
Разобьем множество статистически независимых компонент X на непересекаю-
щиеся подмножества
RXX ~o
∪= , (29)
где ∅≠
o
X (∅ – пустое множество) – множество компонент (
o
m – их число), для
математических ожиданий которых выполнено
o
II
o
I
o
2,...,1,,чч mhhh =≠ ; R~ – мно-
жество компонент, для математических ожиданий которых выполнено с с ,Ih IIh=
1, 2,...,h l= где l~ – их число.
Дискриминантный анализ по независимым признакам...
«Штучний інтелект» 3’2008 213
3С
Рассмотрим величину
)}({)}({)Д( 2
o
VDEXDEV AB
2
AB −= (30)
для двух случаев состава множества компонент V .
Пусть в первом случае множество V таково, что выполняется: rXV ~o
∪= , где
Rr ~~∈ (в дискриминантную функцию включен избыточный признак).
Учитывая (26) – (27), для величины )(Д1 V получаем
=−= )}~({)}({)(Д
o
2
o
1 rXDEXDEV AB
2
AB ∪
−
−
−
−
−
+
+τ
−−−τ
−τ= −
−
−
1
1
)](/)1([
1
o
1
o
1
11
1
o
2
1
o
11
o
2
2
o
o
o r
mr
mr
rc
cm
cmrrm
B
A
X
A
X
X
(31)
1
1
1
1)]1(/)1()1[(
1
o
1
o
1
11
1
o
2
1
o
11
o
2
2
−
−−
−−
−
+
+τ
−−−−+τ
−τ− −
−
−
r
mr
mr
rc
cm
cmrrm
B
AV
AV
V .
В соответствии с леммой 2 в работах [8-10] для расстояний Махаланобиса
введенных в (29) множеств V и
o
X выполняется: 22
o
X
V τ=τ .
С учетом этого, ограничившись точностью )/1( 1r , пренебрегая членами порядка
)/1( 2
1r , получаем
.0
))1()((
)()(
1
1)(Д
1
o
21
o
2
1
1
2232
1
1
oo
oo
>
++τ+τ
τ+τ
⋅
−
=
−−
−
A
X
A
X
A
XX
cmcm
cr
r
V (32)
Из положительной определенности величины )(Д1 V в (32) следует, что
добавление признака Rr ~~∈ не улучшает качество дискриминантной функции по
рассматриваемому критерию.
Пусть во втором случае множество V таково, что выполняется:
oo
xVX ∪= , где
oo
Xx∈ (в дискриминантной функции пропущен один признак).
Учитывая (26) – (27), для величины )(Д2 V получаем
=−= )}({)}({)(Д 2
o
2 VDEXDEV AB
2
AB
−
−
−
−
−
+
+τ
−−−τ
−τ= −
−
−
1
1
)](/)1([
1
o
1
o
1
11
1
o
2
1
o
11
o
2
2
o
o
o r
mr
mr
rc
cm
cmrrm
B
A
X
A
X
X
1
1
1
1
)1(
)]1(/)1()1[(
1
o
1
o
1
11
1
o
2
1
o
11
o
2
2
−
+−
+−
−
+
−+τ
+−−−−τ
−τ− −
−
−
r
mr
mr
rc
cm
cmrrm
B
AV
AV
V . (33)
Сарычев А.П.
«Искусственный интеллект» 3’2008 214
3С
В соответствии с леммой 3 в работах [8-10] для расстояний Махаланобиса
введенных в (29) множеств V и
o
X выполняется соотношение: 222
o γ−τ=τ
X
V , где
02 >γ – составляющая расстояния Махаланобиса, обусловленная пропущенным
признаком.
С учетом этого, ограничившись точностью )/1( 1r , пренебрегая членами
порядка )/1( 2
1r , получаем
+γ−τττ−⋅
−+γ−τ+τ−
=
−−
)(
])1())[()(1(
1)(Д 2222
1
o
221
o
2
1
2 ooo
oo
XXX
A
X
A
X
cmcmr
V
(34)
−τ−−γ+γ−τ−γ+γ−τ−−τγ+ −− 1
o
2
o
1
2221
oo
1
222
o
1
22 )1()1()()())(1( oooo A
XX
A
XX
cmmrcmmrmr .
Величина )(Д2 V может быть как положительной, так и отрицательной.
Если величина )(Д2 V положительна, то признак
o
x необходимо включать в
дискриминантную функцию. Если величина )(Д2 V отрицательна, то признак
o
x не
следует включать в дискриминантную функцию, поскольку это включение приведет
к уменьшению критерия 2
ABD , т.е. добавление признака
oo
Xx∈ не улучшает качество
дискриминантной функции по рассматриваемому критерию.
Получим условие отрицательности )(Д2 V . Величина )(Д2 V отрицательна,
если отрицателен числитель (34). Поделив числитель на положительную величину
)( 222
oo γ−ττ
XX
, для условия отрицательности )(Д2 V получаем:
2
22
1
oo
1
2
1
oo
1
o
1
2
o
oo
)1)(1()()1(
X
X
A
X
A cmmrcmmrmr τ<
γ−τ
−−−
+
τ
−
+−−γ
−−
. (35)
Условие (35) представляет собой условие редукции (упрощения) дискрими-
нантной функции, оптимальной по количеству и составу признаков.
Это условие можно упростить, если принять: 122
o =τ
X
, 6
o
=m , а для
2III1 −+= AA nnr и )( 1
II
1
I
1 −−− += AAA nnc принять, что AA nn III ≈ , AAA nnn =+ III . При
выполнении этих предположений второе и третье слагаемые в квадратных скобках
(35) приближенно равны единице, и условие (35) принимает вид:
)1(
o
2
2
o
−−
τ
<γ
mnA
X . (36)
Опыт практических применений и тестовые исследования способа с разбие-
нием наблюдений на обучающие и проверочные подвыборки, проведенные методом
статистических испытаний [1-7], показывают: 1) с увеличением объема выборок
Дискриминантный анализ по независимым признакам...
«Штучний інтелект» 3’2008 215
3С
наблюдений увеличивается количество признаков во множестве, на котором
достигается наилучшее качество распознавания, а с уменьшением объема выборок
наблюдений количество признаков в таком множестве уменьшается; 2) с увели-
чением расстояния Махаланобиса 2
Xτ между генеральными совокупностями (из
которых получены выборки наблюдений) увеличивается количество признаков во
множестве, на котором достигается наилучшее качество распознавания, а с умень-
шением этого расстояния количество признаков в таком множестве уменьшается.
Полученные в статье результаты объясняют эти эмпирически установленные
закономерности.
Отметим, что в асимптотике при ∞→An ( ∞→1r ) условие редукции не
выполняется, поскольку 0г2 > , т.е.
o
XVOPT = .
Выводы
В статье исследован и аналитически обоснован способ сравнения дискрими-
нантных функций, основанный на разбиении выборок наблюдений на обучающие и
проверочные подвыборки в случае статистически независимых признаков. Несмотря
на успешное применение этого способа на практике и неоднократное подтверждение
его работоспособности методом статистических испытаний, он традиционно
считался эвристическим приёмом.
Для этого способа получено условие существования оптимального множества
признаков, зависящих от параметров генеральных совокупностей и объемов выбо-
рок, и выявлены закономерности упрощения оптимальной дискриминантной функ-
ции при уменьшении объемов выборок и при уменьшении расстояния Махаланобиса
между генеральными совокупностями.
Показано, что в условиях структурной неопределенности и отсутствия априор-
ных оценок дисперсий независимых признаков исследованный способ позволяет
решать задачу поиска дискриминантной функции оптимальной сложности.
Литература
1. Лбов Г.С. Выбор эффективной системы зависимых признаков // Вычислительные системы. – 1965. –
Вып. 19. – С. 21–34.
2. Раудис Ш.Ю. Влияние объема выборки на точность выбора модели в задаче распознавания
образов // Статистические проблемы управления. – 1981. – Вып. 50. – С. 9-30.
3. Раудис Ш. Влияние объема выборки на качество классификации (обзор) // Статистические
проблемы управления. – Вильнюс: Ин-т мат. и киб. АН Литвы, 1984. – Вып. 66. – С. 9-42.
4. Распознавание образов: Состояние и перспективы / К. Верхаген, Р. Дейн, Ф. Грун и др. – Пер. с
англ. – М.: Радио и связь, 1985. – 104 с.
5. Фомин Я.А., Тарловский Г.Р. Статистическая теория распознавания образов. – М.: Радио и связь,
1986. – 264 с.
6. Прикладная статистика: Классификация и снижение размерности / С.А. Айвазян, В.М. Бухштабер,
И.С. Енюков и др.– М.: Финансы и статистика, 1989. – 608 с.
7. Проблемы построения систем анализа данных // Статистические проблемы управления / Ред.
Ш. Раудис. – Вильнюс: Институт математики и кибернетики АН Литвы, 1990. – Вып. 93. – 247 с.
8. Мирошниченко Л.В., Сарычев А.П. Схема скользящего экзамена для поиска оптимального множества
признаков в задаче дискриминантного анализа // Автоматика. – 1992. – № 1. – С. 35-44.
9. Сарычев А.П. Схема поиска оптимального множества признаков в задаче дискриминантного
анализа с разбиением наблюдений на обучающие и проверочные подвыборки // Автоматика. –
1992. – № 4. – С. 39-43.
Сарычев А.П.
«Искусственный интеллект» 3’2008 216
3С
10. Сарычев А.П. Схема скользящего экзамена для определения оптимального множества признаков в
задаче дискриминантного анализа // Проблемы управления и информатики. – 2002. – № 6. – С. 65-77.
11. Сарычев А.П. Решение задачи дискриминантного анализа в условиях структурной неопределен-
ности на основе метода группового учета аргументов // Проблемы управления и информатики. –
2008. – № 3. – C. 100-112.
12. Дженнрич Р.И. Пошаговый дискриминантный анализ // Статистические методы для ЭВМ:
Пер. с англ. – М.: Наука, 1986. – С. 94-112.
13. Статистические методы для ЭВМ / Под ред. К. Энслейна, Э. Рэлстона, Г.С. Уилфа: Пер. с англ. – М.:
Наука, 1986. – 464 с.
О.П. Саричев
Дискримінантний аналіз за незалежними ознаками в умовах структурної невизначеності
Розглянуто задачу пошуку дискримінантної функції оптимальної складності в умовах незалежних ознак.
Розглянуто спосіб порівняння дискримінантних функцій, що заснований на розбивці спостережень на
навчальні і перевірні підвибірки: навчальні підвибірки використовуються для оцінювання коефіцієнтів
дискримінантної функції, а перевірні підвибірки – для оцінювання її якості класифікації. У даній статті
загальні результати, які отримані автором, застосовані для часткового випадку, коли ознаки статистично
незалежні.
A.P. Sarychev
The Discriminant Analysis with Independent Futures in Structural Uncertainty Conditions
The problem of search of a discriminant function of optimum complexity in conditions of independent
futures is considered. Comparison of quality of discriminant functions is based on partition of initial sample
of the data on learning and checking parts: on learning subsample the coefficients of discriminant functions
estimate, and on checking subsample the quality of discriminant functions estimate. In the given article the
general rezults obtained by the author, are applied for a particular case, when the futures are statistically
independent.
Статья поступила в редакцию 21.07.2008.
|
| id | nasplib_isofts_kiev_ua-123456789-6919 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | 1561-5359 |
| language | Russian |
| last_indexed | 2025-11-30T09:18:41Z |
| publishDate | 2008 |
| publisher | Інститут проблем штучного інтелекту МОН України та НАН України |
| record_format | dspace |
| spelling | Сарычев, А.П. 2010-03-19T11:14:07Z 2010-03-19T11:14:07Z 2008 Дискриминантный анализ по независимым признакам в условиях структурной неопределенности / А.П. Сарычев // Штучний інтелект. — 2008. — № 3. — С. 208-216. — Бібліогр.: 13 назв. — рос. 1561-5359 https://nasplib.isofts.kiev.ua/handle/123456789/6919 519.25 Рассмотрена задача поиска дискриминантной функции оптимальной сложности в условиях неза- висимых признаков. Рассмотрен способ сравнения дискриминантных функций, который основан на разбиении наблюдений на обучающие и проверочные подвыборки: обучающие подвыборки используются для оценивания коэффициентов дискриминантной функции, а проверочные подвыборки – для оценивания ее качества классификации. В данной статье общие результаты, полученные автором, применены для частного случая, когда признаки статистически независимы. Розглянуто задачу пошуку дискримінантної функції оптимальної складності в умовах незалежних ознак. Розглянуто спосіб порівняння дискримінантних функцій, що заснований на розбивці спостережень на навчальні і перевірні підвибірки: навчальні підвибірки використовуються для оцінювання коефіцієнтів дискримінантної функції, а перевірні підвибірки – для оцінювання її якості класифікації. У даній статті загальні результати, які отримані автором, застосовані для часткового випадку, коли ознаки статистично незалежні. The problem of search of a discriminant function of optimum complexity in conditions of independent futures is considered. Comparison of quality of discriminant functions is based on partition of initial sample of the data on learning and checking parts: on learning subsample the coefficients of discriminant functions estimate, and on checking subsample the quality of discriminant functions estimate. In the given article the general rezults obtained by the author, are applied for a particular case, when the futures are statistically independent. ru Інститут проблем штучного інтелекту МОН України та НАН України Системы принятия решений, планирования и управления. Информационная безопасность интеллектуальных систем Дискриминантный анализ по независимым признакам в условиях структурной неопределенности Дискримінантний аналіз за незалежними ознаками в умовах структурної невизначеності The Discriminant Analysis with Independent Futures in Structural Uncertainty Conditions Article published earlier |
| spellingShingle | Дискриминантный анализ по независимым признакам в условиях структурной неопределенности Сарычев, А.П. Системы принятия решений, планирования и управления. Информационная безопасность интеллектуальных систем |
| title | Дискриминантный анализ по независимым признакам в условиях структурной неопределенности |
| title_alt | Дискримінантний аналіз за незалежними ознаками в умовах структурної невизначеності The Discriminant Analysis with Independent Futures in Structural Uncertainty Conditions |
| title_full | Дискриминантный анализ по независимым признакам в условиях структурной неопределенности |
| title_fullStr | Дискриминантный анализ по независимым признакам в условиях структурной неопределенности |
| title_full_unstemmed | Дискриминантный анализ по независимым признакам в условиях структурной неопределенности |
| title_short | Дискриминантный анализ по независимым признакам в условиях структурной неопределенности |
| title_sort | дискриминантный анализ по независимым признакам в условиях структурной неопределенности |
| topic | Системы принятия решений, планирования и управления. Информационная безопасность интеллектуальных систем |
| topic_facet | Системы принятия решений, планирования и управления. Информационная безопасность интеллектуальных систем |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/6919 |
| work_keys_str_mv | AT saryčevap diskriminantnyianalizponezavisimympriznakamvusloviâhstrukturnoineopredelennosti AT saryčevap diskrimínantniianalízzanezaležnimioznakamivumovahstrukturnoíneviznačeností AT saryčevap thediscriminantanalysiswithindependentfuturesinstructuraluncertaintyconditions |