Дискриминантный анализ по независимым признакам в условиях структурной неопределенности

Рассмотрена задача поиска дискриминантной функции оптимальной сложности в условиях неза- висимых признаков. Рассмотрен способ сравнения дискриминантных функций, который основан на разбиении наблюдений на обучающие и проверочные подвыборки: обучающие подвыборки используются для оценивания коэффици...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Datum:2008
1. Verfasser: Сарычев, А.П.
Format: Artikel
Sprache:Russisch
Veröffentlicht: Інститут проблем штучного інтелекту МОН України та НАН України 2008
Schlagworte:
Online Zugang:https://nasplib.isofts.kiev.ua/handle/123456789/6919
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Zitieren:Дискриминантный анализ по независимым признакам в условиях структурной неопределенности / А.П. Сарычев // Штучний інтелект. — 2008. — № 3. — С. 208-216. — Бібліогр.: 13 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1859658837459468288
author Сарычев, А.П.
author_facet Сарычев, А.П.
citation_txt Дискриминантный анализ по независимым признакам в условиях структурной неопределенности / А.П. Сарычев // Штучний інтелект. — 2008. — № 3. — С. 208-216. — Бібліогр.: 13 назв. — рос.
collection DSpace DC
description Рассмотрена задача поиска дискриминантной функции оптимальной сложности в условиях неза- висимых признаков. Рассмотрен способ сравнения дискриминантных функций, который основан на разбиении наблюдений на обучающие и проверочные подвыборки: обучающие подвыборки используются для оценивания коэффициентов дискриминантной функции, а проверочные подвыборки – для оценивания ее качества классификации. В данной статье общие результаты, полученные автором, применены для частного случая, когда признаки статистически независимы. Розглянуто задачу пошуку дискримінантної функції оптимальної складності в умовах незалежних ознак. Розглянуто спосіб порівняння дискримінантних функцій, що заснований на розбивці спостережень на навчальні і перевірні підвибірки: навчальні підвибірки використовуються для оцінювання коефіцієнтів дискримінантної функції, а перевірні підвибірки – для оцінювання її якості класифікації. У даній статті загальні результати, які отримані автором, застосовані для часткового випадку, коли ознаки статистично незалежні. The problem of search of a discriminant function of optimum complexity in conditions of independent futures is considered. Comparison of quality of discriminant functions is based on partition of initial sample of the data on learning and checking parts: on learning subsample the coefficients of discriminant functions estimate, and on checking subsample the quality of discriminant functions estimate. In the given article the general rezults obtained by the author, are applied for a particular case, when the futures are statistically independent.
first_indexed 2025-11-30T09:18:41Z
format Article
fulltext «Искусственный интеллект» 3’2008 208 3С УДК 519.25 А.П. Сарычев Институт технической механики НАН Украины и НКА Украины, г. Днепропетровск Sarychev@prognoz.dp.ua Дискриминантный анализ по независимым признакам в условиях структурной неопределенности Рассмотрена задача поиска дискриминантной функции оптимальной сложности в условиях неза- висимых признаков. Рассмотрен способ сравнения дискриминантных функций, который основан на разбиении наблюдений на обучающие и проверочные подвыборки: обучающие подвыборки используются для оценивания коэффициентов дискриминантной функции, а проверочные подвыборки – для оценивания ее качества классификации. В данной статье общие результаты, полученные автором, применены для частного случая, когда признаки статистически независимы. Решение задачи дискриминантного анализа в условиях структурной неопределен- ности – с определением оптимального множества признаков – предполагает принятие какого-либо способа сравнения дискриминантных функций, построенных на различ- ных множествах признаков. Популярным в приложениях является способ сравнения, основанный на разбиении наблюдений на обучающие и проверочные подвыборки: обучающие под- выборки используются для оценивания коэффициентов дискриминантной функции, а проверочные подвыборки – для оценивания ее качества классификации. Этот спо- соб традиционно трактуется как эвристический прием, хотя факт существования для него оптимального множества признаков неоднократно подтвержден методом статисти- ческих испытаний [1-7]. В рамках метода группового учета аргументов (МГУА) для этого способа аналитически исследован критерий качества для сравнения дискрими- нантных функций, построенных на различных множествах признаков [8-11]. В дан- ной статье результаты, полученные в [8-11], применены для частного случая, когда признаки статистически независимы. Для решения задачи дискриминантного анализа в условиях структурной неопределенности кроме способа сравнения дискриминантных функций требуется указать алгоритм генерирования наборов признаков, включаемых в дискрими- нантную функцию. Предполагается, что в качестве такового принят полный перебор всех возможных сочетаний признаков. Постановка задачи Предположим, что kk k k2 kn1X = [x ,x , … ,x ] (1) – выборка kn независимых наблюдений m -мерного случайного вектора з k из генеральной совокупности kP , имеющего m -мерное нормальное распределение с Дискриминантный анализ по независимым признакам... «Штучний інтелект» 3’2008 209 3С неизвестным математическим ожиданием kч и неизвестной невырожденной кова- риационной матрицей XУ k m k Xз ~N (ч ,У ) , (2) где k – номер I или II генеральных совокупностей IP и IIP , причем I IIч ч≠ . Согласно предположению (2) для наблюдений (1) выполняется ki k ki kX =ч +о , k=I,II, i=1, 2,...,n , (3) где ki m m Xо ~N (0 ,У ) – независимые случайные векторы, распределенные по m-мерному нормальному закону с нулевым математическим ожиданием и ковариационной матрицей XУ T ki m ki ki X kE{о }=0 ; E{о о }=У ; i=1, 2,...,n ; k=I,II; (4) 1 2 T ki ki (mЧm) 1 2 k 1 2E{о о }=O ; i ,i =1, 2,...,n ; i №i ; (5) 1 2 T Ii IIi (mЧm) 1 2 kE{о о }=O ; i ,i =1, 2,...,n , (6) где m0 – нулевой m -мерный вектор-столбец и (mЧm)O – нулевая )( mm× -матрица, }{⋅E – знак математического ожидания. Предположим, что априорные вероятности появления наблюдений из IP и IIP известны и соответственно равны Iр и IIр , причем 1=+ III рр . Предположим, что введены цены ошибочных классификаций: )/( IIIc – цена ошибочной классификации наблюдения из совокупности IIP в качестве наблюдения из IP , а )/( IIIc – цена ошибочной классификации наблюдения из совокупности IP в качестве наблюдения из IIP . Правильная классификация не оценивается. Линейная дискриминантная функция, при которой в указанных предположе- ниях ожидаемая ошибка классификации минимальна, имеет вид T T I II 0R(x)=x д-0,5(ч +ч ) д-lnс , (7) где параметр 0с определяется ценами ошибочных классификаций и априорными вероятностями появления наблюдений 1 0 ))/(()/( −ππ= III IIIcIIIcс , (8) а коэффициенты дискриминантной функции д определяются параметрами генераль- ных совокупностей -1 X I IIд=У (ч -ч ). (9) Решающее правило формулируется следующим образом: если для наблюдения *x выполняется *(x ) 0R ≥ , то *x IP∈ – оно относится к первой группе; если *(x ) 0R < , то *x IIP∈ – оно относится ко второй группе. Получение по выборочным наблюдениям (1) – (3) оценок коэффициентов д в дискриминантной функции (7) с последующим статистическим анализом является задачей дискриминантного анализа, поставленной в узком смысле. Фишеровской оценкой д является оценка ^ ~ ~ -1 I IId =S ( x - x ), (10) Сарычев А.П. «Искусственный интеллект» 3’2008 210 3С где ~ Ix и ~ IIx – оценки математических ожиданий Iч и IIч I IIn n~ ~ -1 -1 I I Ii II II IIi i=1 i=1 x =(n ) X , x =(n ) X∑ ∑ ; (11) матрица S – оценка ковариационной матрицы XУ -1 T T I II I I II IIS=(n +n -2) [x x +x x ], (12) а Ix и IIx – )( Inm × - и )( IInm × -матрицы, составленные из отклонений наблюдений (1) и (3) от оценок ~ Ix и ~ IIx соответственно I ~ ~ ~ II I,1 I I,2 I I,nx =[X - x ,X - x ,...,X - x ], (13) II ~ ~ ~ IIII II,1 II II,2 II II,nx =[X - x ,X - x ,...,X - x ]. (14) Оценка (10) является решением задачи максимизации функционала ~ ~ ~ ~ T T I II I II T d d ( x - x )( x - x ) dЦ= ® max d S d (15) при ограничении ~ ~ T I II T ( x - x ) d =1. d S d (16) Значение функционала (15) при оптимальном значении ^ ~ ~ -1 I IId =S ( x - x ) – ~ ~ ~ ~ 2 T -1 III II ID =( x - x ) S ( x - x ) (17) является выборочной оценкой расстояния Махаланобиса 2 T -1 X I II X I IIф =(ч -ч ) У (ч -ч ) . (18) Для математического ожидания величины 2D выполняется: , 1 }{ 122 −+τ −− = cm mr rDE X (19) где )(,2 1 II 1 I 1 III −−− +=−+= nncnnr . Пусть X – множество m компонент векторов Iз и IIз , над которыми проведены наблюдения; o X – множество )1( oo mmm <≤ компонент векторов Iз и IIз , для математических ожиданий которых выполнено: ,,...,2,1, o II o I o mjчч jj =≠ причем множество o X неизвестно, известно лишь, что XX ⊆ o . Если априорно неизвестно, какие именно компоненты из множества X следует включать в дискриминантную функцию, то говорят о задаче дискриминантного анализа, поставленной в широком смысле. В этом случае по наблюдениям IX и IIX требуется определить множество компонент, которые необходимо включать в дискриминантную функцию, и оценить коэффициенты линейной дискриминантной функции в пространстве этих компонент. Дискриминантный анализ по независимым признакам... «Штучний інтелект» 3’2008 211 3С Известно [5-7], что оценка расстояния Махаланобиса (17) не может быть использована для решения задачи дискриминантного анализа, поставленной в широком смысле, поскольку эта оценка увеличивается при добавлении новых компонент в дискриминантную функцию (в решающее правило). Распространенным приемом в этом случае является назначение «порога» для величины приращения оценки расстояния Махаланобиса (17) при добавлении новой компоненты в дискриминантную функцию [12], [13]. Но такое назначение привносит субъектив- ность в получаемое решение. Воспользуемся результатами работ [8-11] при дополнительном предполо- жении о том, что признаки статистически независимы, т.е. ковариационная матрица XУ в (2), (4), (9), (18) имеет диагональный вид. 1. Критерий качества дискриминантных функций для способа с разбиением наблюдений на обучающие и проверочные подвыборки Пусть на этапе с номером ),...,2,1( mss = алгоритма полного перебора сочетаний признаков в дискриминантную функцию может быть включено только s компонент из множества kX , составляющих текущее анализируемое множество .V Пусть множеству компонент V соответствуют: 1) I IIV и V – )( Ins × - и )( IIns × - матрицы наблюдений из генеральных совокупностей III и PP ; 2) Iн и IIн – )1( ×s - векторы математических ожиданий для наблюдений из III и PP ; 3) VУ – ковариа- ционная )( ss × -матрица. Рассмотрим оценку расстояния Махаланобиса, рассчиты- ваемую с учетом разбиения наблюдений на обучающие и проверочные подвыборки T^ ~ ~ ~ ~ ^ T A IB IIB IB IIB A2 AB T^ ^ A AB d ( v v ) ( v v ) dD (V) = . d S d − − (20) В (20) (sЧ1) -вектор ^ Ad представляет собой рассчитанную на подвыборке A фише- ровскую оценку коэффициентов дискриминантной функции, которая построена в пространстве компонент множества V ^ ~ ~ -1 A IA IIAAd = S ( v v ),− (21) где )1( ×s -векторы ~ IAv и ~ IIAv – оценки математических ожиданий Iн и IIн kAn~ -1 kA kA kiA i=1 v = (n ) V , k = I,II;∑ (22) )( ss × -матрица AS – несмещенная оценка ковариационной матрицы VУ -1 T T A IA IIA IA IA IIA IIAS = (n - n - 2) [v v +v v ]. (23) В (23) kAv (k=I,II) – )( kns × -матрицы, составленные из отклонений наблюдений kAV компонент множества V от оценок ~ kAv k ~ ~ ~ kA kA kAkA k1A k2A kn Av = [V - v ,V - v ,...,V - v ]. (24) Сарычев А.П. «Искусственный интеллект» 3’2008 212 3С В (20) )1( ×s -векторы ~ IBv и ~ IIBv вычисляются аналогично (22), а )( ss × -матрица BS – аналогично (23) – (24); BBAA nnnn IIIIII и,и – объемы обучающих и проверочных подвыборок соответственно такие, что выполняется .и IIIIIIIII nnnnnn BABA =+=+ Используя (21), для (20) получаем ~ ~ ~ ~ ~ ~ ~ ~ T -1 T -1 IA IIA IB IIB IB IIB IA IIA2 A A AB ~ ~ ~ ~ T -1 -1 IA IIA IA IIAA B A ( v - v ) S ( v - v )( v - v ) S ( v - v )D (V) = . ( v - v ) S S S ( v - v ) (25) Для математического ожидания случайной величины (25) с учетом результатов [9], [11] выполняется 2 1 2 2 11 1 1 1 2 1 1 1 [ ( 1) / ( )] 1{ ( )} 1 V A AB V B V A s r r s c r r sE D V c s c r s r ττ τ − − −  − − − − − = − + + − −  , (26) где )(),(,2 1 II 1 I 11 II 1 I 1 III1 −−−−−− +=+=−+= BBBAAAAA nncnncnnr ; (27) 2 T -1 V I II V I IIф = (н -н ) У (н -н ) – расстояние Махаланобиса для множества компонент .V 2. Исследование математического ожидания критерия качества дискриминантной функции в зависимости от состава признаков Покажем, что критерий качества дискриминантной функции (20) позволяет решать задачу дискриминантного анализа, поставленную в широком смысле. Покажем существование оптимального множества признаков для способа с разбиением наблюдений на обучающие и проверочные подвыборки и сформулируем условия, при которых оптимальная дискриминантная функция упрощается по числу входящих в нее признаков. С этой целью исследуем зависимость величины )(2 VDAB от состава множества V . Определение 1. Оптимальным множеством признаков называется множе- ство OPTV : )}({maxarg 2 VDEV AB XV OPT ⊆ = . (28) Определение 2. Оптимальной по количеству и составу признаков называется фишеровская дискриминантная функция, построенная на множестве OPTV . Разобьем множество статистически независимых компонент X на непересекаю- щиеся подмножества RXX ~o ∪= , (29) где ∅≠ o X (∅ – пустое множество) – множество компонент ( o m – их число), для математических ожиданий которых выполнено o II o I o 2,...,1,,чч mhhh =≠ ; R~ – мно- жество компонент, для математических ожиданий которых выполнено с с ,Ih IIh= 1, 2,...,h l= где l~ – их число. Дискриминантный анализ по независимым признакам... «Штучний інтелект» 3’2008 213 3С Рассмотрим величину )}({)}({)Д( 2 o VDEXDEV AB 2 AB −= (30) для двух случаев состава множества компонент V . Пусть в первом случае множество V таково, что выполняется: rXV ~o ∪= , где Rr ~~∈ (в дискриминантную функцию включен избыточный признак). Учитывая (26) – (27), для величины )(Д1 V получаем =−= )}~({)}({)(Д o 2 o 1 rXDEXDEV AB 2 AB ∪ − − −             − − + +τ −−−τ −τ= − − − 1 1 )](/)1([ 1 o 1 o 1 11 1 o 2 1 o 11 o 2 2 o o o r mr mr rc cm cmrrm B A X A X X (31) 1 1 1 1)]1(/)1()1[( 1 o 1 o 1 11 1 o 2 1 o 11 o 2 2 − −−           −− − + +τ −−−−+τ −τ− − − − r mr mr rc cm cmrrm B AV AV V . В соответствии с леммой 2 в работах [8-10] для расстояний Махаланобиса введенных в (29) множеств V и o X выполняется: 22 o X V τ=τ . С учетом этого, ограничившись точностью )/1( 1r , пренебрегая членами порядка )/1( 2 1r , получаем .0 ))1()(( )()( 1 1)(Д 1 o 21 o 2 1 1 2232 1 1 oo oo >             ++τ+τ τ+τ ⋅ − = −− − A X A X A XX cmcm cr r V (32) Из положительной определенности величины )(Д1 V в (32) следует, что добавление признака Rr ~~∈ не улучшает качество дискриминантной функции по рассматриваемому критерию. Пусть во втором случае множество V таково, что выполняется: oo xVX ∪= , где oo Xx∈ (в дискриминантной функции пропущен один признак). Учитывая (26) – (27), для величины )(Д2 V получаем =−= )}({)}({)(Д 2 o 2 VDEXDEV AB 2 AB − − −             − − + +τ −−−τ −τ= − − − 1 1 )](/)1([ 1 o 1 o 1 11 1 o 2 1 o 11 o 2 2 o o o r mr mr rc cm cmrrm B A X A X X 1 1 1 1 )1( )]1(/)1()1[( 1 o 1 o 1 11 1 o 2 1 o 11 o 2 2 − +−           +− − + −+τ +−−−−τ −τ− − − − r mr mr rc cm cmrrm B AV AV V . (33) Сарычев А.П. «Искусственный интеллект» 3’2008 214 3С В соответствии с леммой 3 в работах [8-10] для расстояний Махаланобиса введенных в (29) множеств V и o X выполняется соотношение: 222 o γ−τ=τ X V , где 02 >γ – составляющая расстояния Махаланобиса, обусловленная пропущенным признаком. С учетом этого, ограничившись точностью )/1( 1r , пренебрегая членами порядка )/1( 2 1r , получаем    +γ−τττ−⋅ −+γ−τ+τ− = −− )( ])1())[()(1( 1)(Д 2222 1 o 221 o 2 1 2 ooo oo XXX A X A X cmcmr V (34)    −τ−−γ+γ−τ−γ+γ−τ−−τγ+ −− 1 o 2 o 1 2221 oo 1 222 o 1 22 )1()1()()())(1( oooo A XX A XX cmmrcmmrmr . Величина )(Д2 V может быть как положительной, так и отрицательной. Если величина )(Д2 V положительна, то признак o x необходимо включать в дискриминантную функцию. Если величина )(Д2 V отрицательна, то признак o x не следует включать в дискриминантную функцию, поскольку это включение приведет к уменьшению критерия 2 ABD , т.е. добавление признака oo Xx∈ не улучшает качество дискриминантной функции по рассматриваемому критерию. Получим условие отрицательности )(Д2 V . Величина )(Д2 V отрицательна, если отрицателен числитель (34). Поделив числитель на положительную величину )( 222 oo γ−ττ XX , для условия отрицательности )(Д2 V получаем: 2 22 1 oo 1 2 1 oo 1 o 1 2 o oo )1)(1()()1( X X A X A cmmrcmmrmr τ<           γ−τ −−− + τ − +−−γ −− . (35) Условие (35) представляет собой условие редукции (упрощения) дискрими- нантной функции, оптимальной по количеству и составу признаков. Это условие можно упростить, если принять: 122 o =τ X , 6 o =m , а для 2III1 −+= AA nnr и )( 1 II 1 I 1 −−− += AAA nnc принять, что AA nn III ≈ , AAA nnn =+ III . При выполнении этих предположений второе и третье слагаемые в квадратных скобках (35) приближенно равны единице, и условие (35) принимает вид: )1( o 2 2 o −− τ <γ mnA X . (36) Опыт практических применений и тестовые исследования способа с разбие- нием наблюдений на обучающие и проверочные подвыборки, проведенные методом статистических испытаний [1-7], показывают: 1) с увеличением объема выборок Дискриминантный анализ по независимым признакам... «Штучний інтелект» 3’2008 215 3С наблюдений увеличивается количество признаков во множестве, на котором достигается наилучшее качество распознавания, а с уменьшением объема выборок наблюдений количество признаков в таком множестве уменьшается; 2) с увели- чением расстояния Махаланобиса 2 Xτ между генеральными совокупностями (из которых получены выборки наблюдений) увеличивается количество признаков во множестве, на котором достигается наилучшее качество распознавания, а с умень- шением этого расстояния количество признаков в таком множестве уменьшается. Полученные в статье результаты объясняют эти эмпирически установленные закономерности. Отметим, что в асимптотике при ∞→An ( ∞→1r ) условие редукции не выполняется, поскольку 0г2 > , т.е. o XVOPT = . Выводы В статье исследован и аналитически обоснован способ сравнения дискрими- нантных функций, основанный на разбиении выборок наблюдений на обучающие и проверочные подвыборки в случае статистически независимых признаков. Несмотря на успешное применение этого способа на практике и неоднократное подтверждение его работоспособности методом статистических испытаний, он традиционно считался эвристическим приёмом. Для этого способа получено условие существования оптимального множества признаков, зависящих от параметров генеральных совокупностей и объемов выбо- рок, и выявлены закономерности упрощения оптимальной дискриминантной функ- ции при уменьшении объемов выборок и при уменьшении расстояния Махаланобиса между генеральными совокупностями. Показано, что в условиях структурной неопределенности и отсутствия априор- ных оценок дисперсий независимых признаков исследованный способ позволяет решать задачу поиска дискриминантной функции оптимальной сложности. Литература 1. Лбов Г.С. Выбор эффективной системы зависимых признаков // Вычислительные системы. – 1965. – Вып. 19. – С. 21–34. 2. Раудис Ш.Ю. Влияние объема выборки на точность выбора модели в задаче распознавания образов // Статистические проблемы управления. – 1981. – Вып. 50. – С. 9-30. 3. Раудис Ш. Влияние объема выборки на качество классификации (обзор) // Статистические проблемы управления. – Вильнюс: Ин-т мат. и киб. АН Литвы, 1984. – Вып. 66. – С. 9-42. 4. Распознавание образов: Состояние и перспективы / К. Верхаген, Р. Дейн, Ф. Грун и др. – Пер. с англ. – М.: Радио и связь, 1985. – 104 с. 5. Фомин Я.А., Тарловский Г.Р. Статистическая теория распознавания образов. – М.: Радио и связь, 1986. – 264 с. 6. Прикладная статистика: Классификация и снижение размерности / С.А. Айвазян, В.М. Бухштабер, И.С. Енюков и др.– М.: Финансы и статистика, 1989. – 608 с. 7. Проблемы построения систем анализа данных // Статистические проблемы управления / Ред. Ш. Раудис. – Вильнюс: Институт математики и кибернетики АН Литвы, 1990. – Вып. 93. – 247 с. 8. Мирошниченко Л.В., Сарычев А.П. Схема скользящего экзамена для поиска оптимального множества признаков в задаче дискриминантного анализа // Автоматика. – 1992. – № 1. – С. 35-44. 9. Сарычев А.П. Схема поиска оптимального множества признаков в задаче дискриминантного анализа с разбиением наблюдений на обучающие и проверочные подвыборки // Автоматика. – 1992. – № 4. – С. 39-43. Сарычев А.П. «Искусственный интеллект» 3’2008 216 3С 10. Сарычев А.П. Схема скользящего экзамена для определения оптимального множества признаков в задаче дискриминантного анализа // Проблемы управления и информатики. – 2002. – № 6. – С. 65-77. 11. Сарычев А.П. Решение задачи дискриминантного анализа в условиях структурной неопределен- ности на основе метода группового учета аргументов // Проблемы управления и информатики. – 2008. – № 3. – C. 100-112. 12. Дженнрич Р.И. Пошаговый дискриминантный анализ // Статистические методы для ЭВМ: Пер. с англ. – М.: Наука, 1986. – С. 94-112. 13. Статистические методы для ЭВМ / Под ред. К. Энслейна, Э. Рэлстона, Г.С. Уилфа: Пер. с англ. – М.: Наука, 1986. – 464 с. О.П. Саричев Дискримінантний аналіз за незалежними ознаками в умовах структурної невизначеності Розглянуто задачу пошуку дискримінантної функції оптимальної складності в умовах незалежних ознак. Розглянуто спосіб порівняння дискримінантних функцій, що заснований на розбивці спостережень на навчальні і перевірні підвибірки: навчальні підвибірки використовуються для оцінювання коефіцієнтів дискримінантної функції, а перевірні підвибірки – для оцінювання її якості класифікації. У даній статті загальні результати, які отримані автором, застосовані для часткового випадку, коли ознаки статистично незалежні. A.P. Sarychev The Discriminant Analysis with Independent Futures in Structural Uncertainty Conditions The problem of search of a discriminant function of optimum complexity in conditions of independent futures is considered. Comparison of quality of discriminant functions is based on partition of initial sample of the data on learning and checking parts: on learning subsample the coefficients of discriminant functions estimate, and on checking subsample the quality of discriminant functions estimate. In the given article the general rezults obtained by the author, are applied for a particular case, when the futures are statistically independent. Статья поступила в редакцию 21.07.2008.
id nasplib_isofts_kiev_ua-123456789-6919
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 1561-5359
language Russian
last_indexed 2025-11-30T09:18:41Z
publishDate 2008
publisher Інститут проблем штучного інтелекту МОН України та НАН України
record_format dspace
spelling Сарычев, А.П.
2010-03-19T11:14:07Z
2010-03-19T11:14:07Z
2008
Дискриминантный анализ по независимым признакам в условиях структурной неопределенности / А.П. Сарычев // Штучний інтелект. — 2008. — № 3. — С. 208-216. — Бібліогр.: 13 назв. — рос.
1561-5359
https://nasplib.isofts.kiev.ua/handle/123456789/6919
519.25
Рассмотрена задача поиска дискриминантной функции оптимальной сложности в условиях неза- висимых признаков. Рассмотрен способ сравнения дискриминантных функций, который основан на разбиении наблюдений на обучающие и проверочные подвыборки: обучающие подвыборки используются для оценивания коэффициентов дискриминантной функции, а проверочные подвыборки – для оценивания ее качества классификации. В данной статье общие результаты, полученные автором, применены для частного случая, когда признаки статистически независимы.
Розглянуто задачу пошуку дискримінантної функції оптимальної складності в умовах незалежних ознак. Розглянуто спосіб порівняння дискримінантних функцій, що заснований на розбивці спостережень на навчальні і перевірні підвибірки: навчальні підвибірки використовуються для оцінювання коефіцієнтів дискримінантної функції, а перевірні підвибірки – для оцінювання її якості класифікації. У даній статті загальні результати, які отримані автором, застосовані для часткового випадку, коли ознаки статистично незалежні.
The problem of search of a discriminant function of optimum complexity in conditions of independent futures is considered. Comparison of quality of discriminant functions is based on partition of initial sample of the data on learning and checking parts: on learning subsample the coefficients of discriminant functions estimate, and on checking subsample the quality of discriminant functions estimate. In the given article the general rezults obtained by the author, are applied for a particular case, when the futures are statistically independent.
ru
Інститут проблем штучного інтелекту МОН України та НАН України
Системы принятия решений, планирования и управления. Информационная безопасность интеллектуальных систем
Дискриминантный анализ по независимым признакам в условиях структурной неопределенности
Дискримінантний аналіз за незалежними ознаками в умовах структурної невизначеності
The Discriminant Analysis with Independent Futures in Structural Uncertainty Conditions
Article
published earlier
spellingShingle Дискриминантный анализ по независимым признакам в условиях структурной неопределенности
Сарычев, А.П.
Системы принятия решений, планирования и управления. Информационная безопасность интеллектуальных систем
title Дискриминантный анализ по независимым признакам в условиях структурной неопределенности
title_alt Дискримінантний аналіз за незалежними ознаками в умовах структурної невизначеності
The Discriminant Analysis with Independent Futures in Structural Uncertainty Conditions
title_full Дискриминантный анализ по независимым признакам в условиях структурной неопределенности
title_fullStr Дискриминантный анализ по независимым признакам в условиях структурной неопределенности
title_full_unstemmed Дискриминантный анализ по независимым признакам в условиях структурной неопределенности
title_short Дискриминантный анализ по независимым признакам в условиях структурной неопределенности
title_sort дискриминантный анализ по независимым признакам в условиях структурной неопределенности
topic Системы принятия решений, планирования и управления. Информационная безопасность интеллектуальных систем
topic_facet Системы принятия решений, планирования и управления. Информационная безопасность интеллектуальных систем
url https://nasplib.isofts.kiev.ua/handle/123456789/6919
work_keys_str_mv AT saryčevap diskriminantnyianalizponezavisimympriznakamvusloviâhstrukturnoineopredelennosti
AT saryčevap diskrimínantniianalízzanezaležnimioznakamivumovahstrukturnoíneviznačeností
AT saryčevap thediscriminantanalysiswithindependentfuturesinstructuraluncertaintyconditions