Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода

Important inequality is shown out in relation to Shennon mutual information on two dependent boole casual sizes. It is used for proof of estimations from below in the theory of complication oftasks of optimization and Bayesian pattern recognition procedures.

Збережено в:
Бібліографічні деталі
Дата:2006
Автор: Вагис, А.А.
Формат: Стаття
Мова:Russian
Опубліковано: Інститут кібернетики ім. В.М. Глушкова НАН України 2006
Назва видання:Теорія оптимальних рішень
Онлайн доступ:https://nasplib.isofts.kiev.ua/handle/123456789/84948
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода / А.А. Вагис // Теорія оптимальних рішень: Зб. наук. пр. — 2006. — № 5. — С. 10-15. — Бібліогр.: 4 назв. — рос.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id nasplib_isofts_kiev_ua-123456789-84948
record_format dspace
spelling nasplib_isofts_kiev_ua-123456789-849482025-02-23T17:56:33Z Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода About one informative inequality in the theory of complication of optimizations tasks and inductive conclusion procedures Вагис, А.А. Important inequality is shown out in relation to Shennon mutual information on two dependent boole casual sizes. It is used for proof of estimations from below in the theory of complication oftasks of optimization and Bayesian pattern recognition procedures. 2006 Article Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода / А.А. Вагис // Теорія оптимальних рішень: Зб. наук. пр. — 2006. — № 5. — С. 10-15. — Бібліогр.: 4 назв. — рос. XXXX-0013 https://nasplib.isofts.kiev.ua/handle/123456789/84948 519.68 ru Теорія оптимальних рішень application/pdf Інститут кібернетики ім. В.М. Глушкова НАН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Russian
description Important inequality is shown out in relation to Shennon mutual information on two dependent boole casual sizes. It is used for proof of estimations from below in the theory of complication oftasks of optimization and Bayesian pattern recognition procedures.
format Article
author Вагис, А.А.
spellingShingle Вагис, А.А.
Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода
Теорія оптимальних рішень
author_facet Вагис, А.А.
author_sort Вагис, А.А.
title Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода
title_short Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода
title_full Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода
title_fullStr Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода
title_full_unstemmed Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода
title_sort об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода
publisher Інститут кібернетики ім. В.М. Глушкова НАН України
publishDate 2006
url https://nasplib.isofts.kiev.ua/handle/123456789/84948
citation_txt Об одном информационном неравенстве в теории сложности задач оптимизации и процедур индуктивного вывода / А.А. Вагис // Теорія оптимальних рішень: Зб. наук. пр. — 2006. — № 5. — С. 10-15. — Бібліогр.: 4 назв. — рос.
series Теорія оптимальних рішень
work_keys_str_mv AT vagisaa obodnominformacionnomneravenstvevteoriisložnostizadačoptimizaciiiprocedurinduktivnogovyvoda
AT vagisaa aboutoneinformativeinequalityinthetheoryofcomplicationofoptimizationstasksandinductiveconclusionprocedures
first_indexed 2025-11-24T05:55:04Z
last_indexed 2025-11-24T05:55:04Z
_version_ 1849650005279768576
fulltext Теорія оптимальних рішень. 2006, № 5 10 ÒÅÎÐ²ß ÎÏÒÈÌÀËÜÍÈÕ Ð²ØÅÍÜ Выведено важное неравенство относительно шенноновской вза- имной информации относительно двух зависимых булевых случайных величин. Оно используется при до- казательстве оценок снизу в тео- рии сложности задач оптими- зации и байесовской процедуры распознавания.  А.А. Вагис, 2006 ÓÄÊ 519.68 À.À. ÂÀÃÈÑ ÎÁ ÎÄÍÎÌ ÈÍÔÎÐÌÀÖÈÎÍÍÎÌ ÍÅÐÀÂÅÍÑÒÂÅ Â ÒÅÎÐÈÈ ÑËÎÆÍÎÑÒÈ ÇÀÄÀ× ÎÏÒÈÌÈÇÀÖÈÈ È ÏÐÎÖÅÄÓÐ ÈÍÄÓÊÒÈÂÍÎÃÎ ÂÛÂÎÄÀ Введение. В теории сложности задач опти- мизации важную роль играет одно неравенс- тво относительно шенноновской информа- ции между случайными величинами [1]. Аналогичное неравенство используется при оценке эффективности байесовской проце- дуры распознавания или обучения [2]. В работе проводится доказательство такого неравенства. Количество информации относительно двух случайных величин 0z и 1z определя- ется соотношением ),()()(),( 011001 zzHzHzHzzI −+= , (1) )(zH – энтропия случайной величины z [3]. Величина ),( 01 zzI обозначает убыль энтро- пии случайной величины 1z при наблюдении случайной величины 0z и наоборот, по- скольку ),(),( 1001 zzIzzI = . Убыль понима- ют как количество информации о случайной величине 1z , полученной при наблюдении случайной величины 0z . Теорема. Пусть 0z и 1z – булевы случай- ные величины, для которых выполняются неравенства 8 3 )( 10 ≤≠ zzP , 2 1 )1()0( 10 ==== zPzP . (2) ОБ ОДНОМ ИНФОРМАЦИОННОМ НЕРАВЕНСТВЕ В ТЕОРИИ СЛОЖНОСТИ ЗАДАЧ ОПТИМИЗАЦИИ… Теорія оптимальних рішень. 2006, № 5 11 Тогда выполняется соотношение 0),( 01 >≥ aCzzI , (3) где aC – абсолютная константа. Доказательство. Из соотношений (2) вытекают неравенства 8 5 )( 01 ≥= zzP , 8 5 )1,1()0,0( 0101 ≥==+== zzPzzP , 4 5 )11()00( 0101 ≥==+== zzPzzP , 4 1 )00( 01 ≥== zzP , 4 1 )11( 01 ≥== zzP , (4) так как )0( )0,0( )00( 0 01 01 = == === zP zzP zzP , )1( )1,1( )11( 0 01 01 = == === zP zzP zzP , 1)00( 01 ≤== zzP , 1)11( 01 ≤== zzP . Далее получаем цепочку неравенств 8 1 )0,0( 01 ≥== zzP , 8 1 )1,1( 01 ≥== zzP , 8 3 )1,0( 01 ≤== zzP , 8 3 )0,1( 01 ≤== zzP , 8 1 )0( 1 ≥=zP , 8 1 )1( 1 ≥=zP . (5) Информация ),( 01 zzI выражается следующим образом: А.А. ВАГИС Теорія оптимальних рішень. 2006, № 5 12 +==−==−= )1(log)1()0(log)0(1),( 111101 zPzPzPzPzzI +====+====+ )1,0(log)1,0()0,0(log)0,0( 01010101 zzPzzPzzPzzP )1,1(log)1,1()0,1(log)0,1( 01010101 ====+====+ zzPzzPzzPzzP . (6) Здесь log обозначает двоичный логарифм 1)1(log)1()0(log)()( 00000 ===−=−= zPzPzPzPzH . Обозначим azP == )0( 1 , bzzP === )0,0( 01 . Из формулы (6), учитывая соотношения , 2 1 )0()0,1()0,0( 00101 =====+== zPzzPzzP , 2 1 )1()1,1()1,0( 00101 =====+== zPzzPzzP ,)0()1,0()0,0( 10101 azPzzPzzP =====+== 1)1()0( 11 ==+= zPzP , (7) получаем +−−−−=≡ )1log()1(log1),(),( 01 aaaabazzI ϕ +      −      −+−−++ bbbababb 2 1 log 2 1 )log()(log       +−      +−+ baba 2 1 log 2 1 . Из формул (5), (7) заключаем, что величины a и b должны удовлетворять усло- виям 8 1 ≥b , 8 1 ≥a , 2 1 ≤b , ab ≤ , 16 1 2 +≥ a b . Последнее неравенство следует из второго в (4). Множество допустимих значений a и b лежит в треугольнике ABC (рисунок). ОБ ОДНОМ ИНФОРМАЦИОННОМ НЕРАВЕНСТВЕ В ТЕОРИИ СЛОЖНОСТИ ЗАДАЧ ОПТИМИЗАЦИИ… Теорія оптимальних рішень. 2006, № 5 13 0 1/8 2/8 3/8 4/8 5/8 6/8 7/8 1 0 1/8 2/8 3/8 4/8 5/8 6/8 7/8 1 a b B C A РИСУНОК Имеем       −−       +− =            +−+      −−−−= bba bab babbabebab 2 1 )( 2 1 log 2 1 ln 2 1 ln)ln(lnlog),('ϕ . Так как 2 a b ≥ , то 0 22 1 2 22 1 2 log),(' =       −       − ≥ aa aa babϕ при каждом a из допустимой области. Поэтому минимальное значение функции ),( baϕ лежит на отрезке AC , т.е. при 16 1 2 += a b . Таким образом, + −− + ++ +−−−−≥ 16 18 log 16 18 16 18 log 16 18 )1log()1(log1),( 01 aaaa aaaazzI )( 16 89 log 16 89 16 87 log 16 87 a aaaa ϕ≡ −− + −− + , где 8 7 8 1 ≤≤ a . Отсюда следует, что А.А. ВАГИС Теорія оптимальних рішень. 2006, № 5 14 =      − − − − − + + +−+−= 16 89 ln 2 1 16 87 ln 2 1 16 18 ln 2 1 16 18 ln 2 1 )1ln(lnlog)(' aaaa aaeaϕ )89)(87( )18)(18()1( log 2 1 2 2 aaa aaa −− −+− = . Поэтому, если +→ aa 8 1 , то −∞→)(' aϕ , и если −→ 8 7 a , то ∞→)(' aϕ . Таким образом, )(' aϕ принимает значение 0 только в одной точке 2 1 =a . Действительно, )89)(87()164()1( 222 aaaaa −−=−− , )6412863()164)(21( 2222 aaaaaa +−=−+− , 4322432 6412863642128164 aaaaaaaa +−=−++−− , 2 1 =a . Значит функция )(aϕ достигает минимума в точке 2 1 : =      ++≥ 16 3 log 16 3 16 5 log 16 5 12),( 01 zzI ( ) =−+=      −+= 163log35log5 8 1 13log 16 3 5log 16 5 2 0 2 35 log 8 1 16 35 > ⋅ = , так как 1635 2655368437535 =>=⋅ . Неравенство (3) доказано. Результат теоремы показывает, что взаимная шенноновская информация двух случайных величин 0z и 1z , связанных соотношениями (2), оказывается не слишком малой, т.е. при проведении опытов над этими случайными величинами приобретается конечная полезная информация. ОБ ОДНОМ ИНФОРМАЦИОННОМ НЕРАВЕНСТВЕ В ТЕОРИИ СЛОЖНОСТИ ЗАДАЧ ОПТИМИЗАЦИИ… Теорія оптимальних рішень. 2006, № 5 15 Выведенное неравенство используется при доказательстве оценок снизу в теории сложности задач оптимизации и байесовской процедуры распознавания. О.А. Вагіс ПРО ОДНУ ІНФОРМАЦІЙНУ НЕРІВНІСТЬ В ТЕОРІЇ СКЛАДНОСТІ ЗАДАЧ ОПТИМІЗАЦІЇ ТА ПРОЦЕДУР ІНДУКТИВНОГО ВИВОДУ Виведено важливу нерівність щодо шеноновської взаємної інформації стосовно двох залежних булевих випадкових величин. Воно використовується при доказі оцінок знизу в теорії складності задач оптимізації та байєсовської процедури розпізнавання. A.A. Vagis ABOUT ONE INFORMATIVE INEQUALITY IN THE THEORY OF COMPLICATION OF OPTIMIZATIONS TASKS AND INDUCTIVE CONCLUSION PROCEDURES Important inequality is shown out in relation to Shennon mutual information on two dependent boole casual sizes. It is used for proof of estimations from below in the theory of complication of tasks of optimization and Bayesian pattern recognition procedures. 1. Немировский А.С.,Юдин Д.Б. Сложность задач и эффективность методов оптимизации. – М.: Наука, 1979. – 383 с. 2. Гупал А.М., Пашко С.В., Сергиенко И.В. Эффективность байесовской процедуры классифи- кации объектов // Кибернетика и системный анализ. – 1995. – №4. – С. 76–89. 3. Гупал А.М., Сергиенко И.В. Оптимальные процедуры распознавания. Обоснование проце- дур индуктивного вывода // Там же. – 2003. – №1. – С. 33–39. 4. Яглом А.М., Яглом И.М. Вероятность и информация. – М.: Наука, 1973. –512 с. Получено 14.02.2006