Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей

Проанализированы основные тенденции исследований в области байесовского оценивания математических и статистических моделей процессов произвольной природы с использованием численных методов Монте-Карло. Описывается преимущество байесовского подхода по сравнению с известными, заключающееся в использов...

Full description

Saved in:
Bibliographic Details
Date:2009
Main Authors: Бидюк, П.И., Павлов, В.В., Борисевич, А.С., Гасанова, Л.Т.
Format: Article
Language:Russian
Published: Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України 2009
Subjects:
Online Access:https://nasplib.isofts.kiev.ua/handle/123456789/7631
Tags: Add Tag
No Tags, Be the first to tag this record!
Journal Title:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Cite this:Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей / П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова // Кибернетика и вычисл. техника. — 2009. — Вип. 156. — С. 40-57. — Бібліогр.: 14 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id nasplib_isofts_kiev_ua-123456789-7631
record_format dspace
spelling nasplib_isofts_kiev_ua-123456789-76312025-02-09T21:45:42Z Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей Бидюк, П.И. Павлов, В.В. Борисевич, А.С. Гасанова, Л.Т. Эргатические системы управления Проанализированы основные тенденции исследований в области байесовского оценивания математических и статистических моделей процессов произвольной природы с использованием численных методов Монте-Карло. Описывается преимущество байесовского подхода по сравнению с известными, заключающееся в использовании априорной информации относительно параметров модели. Предложено два правила выбора априорного распределения, которые охватывают наиболее распространенные случаи. Описанный метод дает возможность получать достаточно большие объемы исходной информации, а также точнее описывать структуру и основные характеристики исследуемой модели. 2009 Article Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей / П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова // Кибернетика и вычисл. техника. — 2009. — Вип. 156. — С. 40-57. — Бібліогр.: 14 назв. — рос. 0452-9910 https://nasplib.isofts.kiev.ua/handle/123456789/7631 62-50 ru application/pdf Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Russian
topic Эргатические системы управления
Эргатические системы управления
spellingShingle Эргатические системы управления
Эргатические системы управления
Бидюк, П.И.
Павлов, В.В.
Борисевич, А.С.
Гасанова, Л.Т.
Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
description Проанализированы основные тенденции исследований в области байесовского оценивания математических и статистических моделей процессов произвольной природы с использованием численных методов Монте-Карло. Описывается преимущество байесовского подхода по сравнению с известными, заключающееся в использовании априорной информации относительно параметров модели. Предложено два правила выбора априорного распределения, которые охватывают наиболее распространенные случаи. Описанный метод дает возможность получать достаточно большие объемы исходной информации, а также точнее описывать структуру и основные характеристики исследуемой модели.
format Article
author Бидюк, П.И.
Павлов, В.В.
Борисевич, А.С.
Гасанова, Л.Т.
author_facet Бидюк, П.И.
Павлов, В.В.
Борисевич, А.С.
Гасанова, Л.Т.
author_sort Бидюк, П.И.
title Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
title_short Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
title_full Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
title_fullStr Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
title_full_unstemmed Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
title_sort применение метода монте-карло для марковских цепей к оцениванию регрессионных моделей
publisher Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України
publishDate 2009
topic_facet Эргатические системы управления
url https://nasplib.isofts.kiev.ua/handle/123456789/7631
citation_txt Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей / П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова // Кибернетика и вычисл. техника. — 2009. — Вип. 156. — С. 40-57. — Бібліогр.: 14 назв. — рос.
work_keys_str_mv AT bidûkpi primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei
AT pavlovvv primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei
AT borisevičas primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei
AT gasanovalt primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei
first_indexed 2025-12-01T03:57:36Z
last_indexed 2025-12-01T03:57:36Z
_version_ 1850276804660559872
fulltext 40 УДК 62-50 П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова ОЦЕНИВАНИЕ РЕГРЕССИОННЫХ МОДЕЛЕЙ С ПОМОЩЬЮ МЕТОДА МОНТЕ-КАРЛО ДЛЯ МАРКОВСКИХ ЦЕПЕЙ Проанализированы основные тенденции исследований в области байе- совского оценивания математических и статистических моделей процессов произволь- ной природы с использованием численных методов Монте-Карло. Описывается пре- имущество байесовского подхода по сравнению с известными, заключающееся в ис- пользовании априорной информации относительно параметров модели. Предложено два правила выбора априорного распределения, которые охватывают наиболее распростра- ненные случаи. Описанный метод дает возможность получать достаточно большие объ- емы исходной информации, а также точнее описывать структуру и основные характери- стики исследуемой модели. Введение. В настоящий момент актуальной задачей оценивания мате- матических и статистических моделей является применение байесовской методологии к процессам различной природы. Байесовский подход, как аль- тернатива классическому статистическому подходу, позволяет точнее и полнее оценивать модели, дает возможность получать хорошие результаты в тех случаях, когда использование классических статистических методов очень ограничено (например, случаи с короткой выборкой статистических данных). Байесовский подход открывает новые, довольно широкие возмож- ности применения методов математического моделирования, а разработан- ные алгоритмы оценивания на основе генерирования случайных чисел спо- собствуют решению поставленных задач с помощью современных вычисли- тельных процедур. Классический подход направлен на получение эффективных алгоритмов оценивания и изучение их асимптотических свойств, которые служат осно- вой для формирования статистического вывода на основе данных относи- тельно большого объема. В случае коротких выборок использование резуль- татов асимптотической теории представляется недостаточно обоснованным. Байесовский подход к формированию статистического вывода основывается на других теоретических предпосылках. Байесовские методы отличаются от классических иным подходом к интерпретации истинных параметров моде- ли. Классический подход исходит из того, что истинные параметры — это не случайные величины, а аппроксимирующие их оценки случайные, по- скольку являются функциями наблюдений, которые содержат случайные процессы [1]. Байесовский подход относится к числу тех подходов, которые более широко трактуют истинные параметры модели, т.е. случайность рас- сматривается как имманентное свойство реального физического мира с уче- том того, что сам физический объект непрерывно испытывает случайные изменения. Поэтому ищут неслучайные оценки, которые довольно близко аппроксимируют какую-нибудь статистику случайного параметра, например его среднее значение или моду. При практическом применении оцененной © П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова, 2009 ISSN 0452-9910. Кибернетика и вычисл. техника. 2009. Вып. 156 41 модели разница практически несущественна — исследователь работает с моделью, которая имеет детерминированные коэффициенты. Вероятностные свойства модели используются для определения погрешности прогноза и анализа чувствительности модели, вычисления функции потерь и т.д. Оче- видно, что подобные вычисления можно выполнять при использовании обо- их подходов. Байесовская методология исследовалась во многих роботах и использо- валась в разных областях науки и техники. В частности, А. Зельнер иссле- довал использование таких методов в эконометрике [1]; В.П. Савчук анали- зировал надежность технических объектов [2]; известно также много других направлений применения этих методов. Использование байесовской мето- дологии в таких случаях сводилось к большим аналитическим исследовани- ям, которые иногда требовали основательных знаний математики и стати- стики [3]. Благодаря развитию компьютерной техники появилась возмож- ность исследовать альтернативные вычислительные алгоритмы, базирую- щиеся на известных принципах генерирования случайных чисел [4–14] и их использовании для формирования оценок параметров математических и ста- тистических моделей случайных процессов. Постановка задачи. Цель статьи — проанализировать и раскрыть су- ществующие основные тенденции исследований в направлении байесовско- го оценивания математических и статистических моделей процессов произ- вольной природы с использованием численных методов Монте-Карло. Мы предполагаем, что случайные процессы содержат детерминированную со- ставляющую, которая может быть описана некоторой выбранной детерми- нированной функцией, например авторегрессией, регрессией, полиномом и т.д. Наличие случайной составляющей в исследуемом процессе требует вве- дения в модель случайных переменных с соответствующими распределе- ниями и применения методов анализа и описание случайных процессов. Суть байесовского подхода. Байесовские методы разработаны в ре- зультате систематических попыток сформулировать и решить проблемы статистического анализа поведения процессов и систем разной природы на основе теоремы Байеса. Предпосылкой к использованию этой теоремы яв- ляются некоторые соотношения между вероятностями событий разного ха- рактера и спецификации любого события на необходимом уровне [3]. Большинство статистических задач, независимо от методов их решения, имеют некоторые общие свойства. Для описания конкретной выборки дан- ных рассматривается несколько вероятностных моделей, как потенциально приемлемые для исследуемой ситуации. После получения данных возника- ют выраженные в некотором числовом виде знания относительно приемле- мости этих моделей. Отличие байесовской парадигмы от других статистических подходов состоит в том, что еще до получения данных исследователь рассматривает степень своего доверия к возможным моделям и представляет ее в виде ве- роятностей. Как только данные получены, теорема Байеса позволяет иссле- 42 дователю определить еще одно множество вероятностей, которые представ- ляют собой пересмотренные степени доверия к возможным моделям- кандидатам с учетом новой информации. Одним из ключевых преимуществ байесовского подхода является ис- пользование любой начальной (априорной) информации относительно па- раметров модели. Такая информация выражается в виде априорной вероят- ности или функции плотности вероятности. Затем начальные вероятности «пересматриваются», с помощью выборочных данных, которые находят свое отображение в виде апостериорного распределения оценок параметров или переменных модели. Рассмотрим случайную переменную ,X которая имеет распределение ве- роятностей, определенное в терминах неизвестного параметра ,θ принадлежа- щего определенному множеству возможных значений параметра .Θ Для задан- ного значения xX = функция правдоподобия каждого отдельного значения θ задается как ).|( θxP В непрерывном случае априорные вероятности для множества возможных моделей отвечают, в общем случае, распределению вероятностей на множестве Θ возможных значений параметра. Таким обра- зом, априорные характеристики (суждение) определяют в виде априорной плотности вероятности: ,),( Θ∈θθP такой, что .1)(∫ Θ =θθ dP (1) Априорное распределение пересматривается на основе выборочных данных xX = для получения апостериорной плотности вероятности ),|( xP θ .Θ∈θ Соответственно по теореме Байеса, которую называют прин- ципом обратной вероятности, устанавливается взаимосвязь между ),|( θxP )|( xP θ и :)(θP ,, )( )()|()|( Θ∈θ θθ =θ xP PxPxP (2) где .)()|()( ∫ Θ θθθ= dPxPxP (3) Учитывая, что в (2) знаменатель не зависит от ,θ довольно часто зави- симость (2) представляют в виде ),()|()|( θθ∝θ PxPxP (4) где ∝ означает пропорциональность. Выбор и анализ априорного распределения. Метод определения ап- риорного распределения зависит от конкретной поставленной задачи. Раз- личают случаи, когда распределение априорной информации известно, если даже распределение параметра «неинформативно». В первом случае, если известен вид функции априорного распределения, то, используя байе- совский подход (равенство (2) или (4)), можно найти вид апостериорного распределения. 43 Существуют случаи, когда априорное и апостериорное распределения относятся к одному и тому же классу распределений. Такие распределения называют сопряженными. Использование их для численных методов в байе- совском подходе означает, что существует замкнутая форма решения для условных апостериорных распределений [14]. Например nXX ...,,1 рассмат- риваются как случайная выборка из нормального распределения с неизвест- ным средним значением µ и известной дисперсией .2σ Также допускается, что априорное распределение µ является нормальным со средним значени- ем 0µ и дисперсией .2 0σ Тогда апостериорное распределение µ при выбо- рочных значениях nXX ...,,1 и заданном априорном распределении также будет нормальным со средним значением *µ и дисперсией ,2 ∗σ которые оп- ределяют следующим образом: 2 0 2 2 00 2 * σ+σ σ+µσ =µ n Xn и ,2 0 2 2 0 2 2 σ+σ σσ =σ∗ n (5) где ∑ = = n i i nXX 1 / — выборочное среднее. В байесовском анализе довольно часто удобно использовать параметр точности 2/1 σ=η (т.е. обратный к дисперсии ).2σ Если для априорного распределения ,/1 2 00 σ=η то для апостериорного ./1 2 * ∗σ=η Теперь равен- ство (5) можно представить в следующем виде: η+η=η n0* и . * 0 * 0 * Xn η η +µ η η =µ (6) Таким образом, для полученной нормальной случайной выборки ин- формация о µ содержится в выборочном среднем ,X которое является дос- таточной статистикой для .µ Точность описания распределения определяет- ся отношением :X ,/ 2 η=ση n т.е. суммой двух компонент: точностью представления априорного распределения и выборочных данных, а апосте- риорное среднее является взвешенным средним априорного среднего, и вы- борочного среднего с весовым коэффициентом, пропорциональным точно- сти. Приведенный результат свидетельствует о том, что вклад априорного распределения уменьшается с возрастанием размера выборки .n Подробное описание получения этого результата можно найти в [1]. Довольно часто рассматривают так называемую байесовскую асимпто- тику, т.е. если ∞→n для апостериорного распределения имеет значение только правдоподобие. Это достаточно просто можно показать с помощью равенства (4), если его представить следующим образом [2]: .)()()|()|( )|(ln θθ=θθ∝θ xPePPxPxP (7) 44 Если предположить, что априорное распределение )(θP и функция правдоподобия )|( θxP невырожденные и имеют непрерывную производ- ную, и )|( θxP имеет единственный максимум ,ˆ maxθ являющийся оценкой максимального правдоподобия, то )]|(ln[ θxP имеет порядок n, а )(θP не зависит от объема выборки. Таким образом, интуитивно понятно, что мно- житель правдоподобия при больших значениях объема выборки будет до- минировать в априорном распределении. Во многих случаях начальная информация о значениях оцениваемых параметров совсем неизвестна, т.е. неизвестный вид априорного распреде- ления ).(θP Другими словами, параметр θ «неинформативный». Для такого случая предложено два правила выбора априорного распределения, которые охватывают наиболее распространенные случаи [12]. Если существует па- раметр на конечном интервале или на интервале от ∞− к ,∞+ то его апри- орная вероятность считается равномерно распределенной. Если же можно обосновать, что параметр принимает значение на интервале от 0 до ,∞ то вероятность его логарифма следует считать равномерно распределенной. Первое правило Джеффриса для представления неопределенности зна- чения формулируется следующим образом: ,,)( +∞<θ<∞−θ∼θθ ddP (8) т.е. .const)( ∼θP Это прямоугольное распределение (или же функция плот- ности вероятности) является несобственным, поскольку .)( ∞=θθ∫ ∞ ∞− dP Из- вестно, что если ∞+<θ<∞− — достоверное событие, то вместо 1 для запи- си вероятности такого события используется .∞ Второе правило Джеффриса применимо к параметрам, природа которых позволяет предположить, что они принимают значение от 0 до .∞ По анало- гии распределение логарифма параметра будет равномерным, т.е. если ,logσ=θ то априорная функция плотности вероятности для θ будет иметь вид (8). Поскольку ,/ σσ=θ dd то (8) предполагает использование равенства +∞<σ< σ σ ∼σσ 0,)( ddP (9) в качестве несобственной функции плотности вероятности, которая будет представлять неопределенность значения параметра .σ Таким образом, для неинформативного параметра, например для дисперсии, априорное распре- деление задают в виде ./1)( σ∝σP Отметим такое важное свойство, как чувствительность априорного рас- пределения. При выборе разных априорных распределений получают раз- ные апостериорные распределения. В таком случае полезно оценить степень влияния отличий. На практике апостериорное распределение используют как априорное, при этом возведя его в некоторую степень ,α где .10 <α< 45 Вычислительные методы байесовского анализа. Байесовский подход довольно широко использует информацию о вероятностном распределении параметров. До конца 80-х годов прошлого века в качестве вычислительных методов для вывода байесовских оценок параметров и их апостериорных распределений использовали аналитические методы: сопряженные априорные распределения и аппроксимацию [14]. С начала 90-х годов бла- годаря бурному развитию компьютерных технологий начали распростра- няться новые методы вычислений, которые базируются на непосредствен- ном генерировании (моделировании выборки) необходимых измерений по апостериорным распределениям. Генерирование случайных величин с заданным распределением — со- временный подход, который дает возможность работать в условиях, когда существуют асимптотические аналитические результаты для свойств оценок и их статистических распределений, но неизвестно, какие свойства будут иметь оценки при малых выборках данных. Выделяют два общих подхода к моделированию: историческое моделирование и моделирование по принци- пу Монте-Карло [14]. Метод Монте-Карло, предложенный Дж. фон Нейма- ном и С. Уламом в 1940-х гг., относится к моделированию процессов с ис- пользованием генератора случайных чисел. Методы моделирования Монте-Карло делятся на итеративные и неите- ративные. К неитеративному относят метод генерирования выборки по важ- ности (importance sampling) и метод отбраковки или принятие выборки (rejection or acceptance sampling) [5]. Неитеративные методы Монте-Карло. Рассмотрим некоторое вероят- ностное распределение или вероятностную плотность распределения )(xp для дискретного или непрерывного процесса. Распределение )(xp называют еще целевым распределением, или целевой плотностью распределения. Не- обходимо сгенерировать выборочные значения N iiX 1}{ = по распределению )(xp и найти их статистическую оценку, т.е. оценить математическое ожи- дание функции )(xφ по распределению: .)()(][ ∫ φ=φ dxxpxE p (10) Допустим, что x — вектор из nR с компонентами ,iX а )(xφ — неко- торая функция. Для выборочных значений N iiX 1}{ = можно записать .)(1ˆ ∑φ=Φ i iX N (11) Поскольку вектор N iiX 1}{ = сгенерирован по ),(xp то математическое ожидание Φ̂ равняется ];[φpE при увеличении количества выборочных значений N дисперсия Φ̂ пропорционально уменьшается. Моделирование выборки по важности — это не метод генерирования выборочных значений N iiX 1}{ = по распределению ),(xp а только метод оце- 46 нивания ожидания ),(xφ представленного выражением (10). Основная идея метода состоит в моделировании по другим, более простым аппроксими- рующим распределениям, например ),(xq которое довольно близко к целе- вому распределению ).(xp Алгоритм моделирования состоит из следующих основных шагов: 1) выбираем значения ,iX сгенерированные по );(xq 2) поскольку моделирование происходило по «ошибочному» распреде- лению, формируем весовой коэффициент ; )( )( i i i Xq Xp =ω (12) 3) находим оценку искомой величины ][φpE из выражения ∑ φω=Φ i ii X N )(1ˆ или . )( ˆ ∑ ∑ ω φω =Φ i i i ii X (13) Основной недостаток такого метода заключается в том, что относитель- ное возрастание дисперсии, обусловленное непостоянными весовыми коэф- фициентами, имеет большую зависимость от выбора аппроксимирующего распределения ),(xq а также то, что все выборочные значения нивелируют- ся небольшим количеством значений с большими весовыми коэффициента- ми. Метод отбраковки, или принятия выборки состоит в моделировании по другим аппроксимирующим распределениям, но перерасчет весового коэф- фициента выполняется в процессе генерирования, при этом сохраняется только часть смоделированных точек измерений. Основной алгоритм гене- рирования выборки состоит из следующих шагов: 1) отыскиваем масштабирующую константу ,M такую что );()( xqMxpx ≤∀ (14) 2) независимо выбираем значения ,iX сгенерированные по )(xq и ,iU равномерно распределенные на интервале ];1,0[ 3) если ),()( iii XpXqUM < то принимаем сгенерированные значе- ния iX , в противном случае — отбрасываем (отбраковываем, отсюда и на- звание метода) и возвращаемся к шагу 2; 4) шаги 2), 3) повторяем до тех пор, пока не найдем N значений .iX Недостатком этого алгоритма, как и в предшествующем случае, являют- ся проблемы при больших размерах выборки; алгоритм вырабатывает «при- емлемые» случайные числа только за M/1 времени, если распределения совпадают. Если M слишком большое, то смоделированные значения от- брасываются. Таким образом, описанные выше методы работают удовлетворительно только в тех случаях, когда избранное для генерирования распределение 47 )(xq подобно целевому распределению ).(xp Однако в большинстве слож- ных задач очень тяжело создать отдельное распределение, которое удовле- творяло бы всем свойствам. Итерационные методы Монте-Карло для марковских цепей. Итера- ционные методы моделирования Монте-Карло базируются на идее построе- ния марковской цепи и, в отличие от предшествующих методов, используют варианты (кандидаты) распределения )(xq (плотностей распределения), ко- торые зависят только от текущего состояния iX [5, 13]. К этим методам можно отнести генерирование выборки по Гиббсу, алгоритм Метрополиса, Метрополиса–Хастингса и др. Рассмотрим стохастический процесс },{ tX где .Θ∈tX Если при задан- ном значении tX значение hX (при )th > не зависят от значений sX при ,ts < то он марковский. Иначе говоря, }{ tX — марковский процесс, если его условная функция распределения удовлетворяет равенству .),/(),/( thXXPtsXXP thsh >=≤ (15) Если }{ tX — дискретный стохастический процесс, то его основная ха- рактеристика имеет вид .),/(,...),/( 1 thXXPXXXP thtth >=− (16) Если A — подмножество ,Θ то функция ,),/(),,( thXAXPAhP tht >θ=∈=θ (17) выступает как функция переходной вероятности марковского процесса. Ес- ли переходная вероятность зависит от ,th − а не от ,t то процесс имеет ста- ционарную переходную вероятность. Основой моделирования с помощью марковской цепи служит построе- ние марковского процесса, для которого стационарное распределение пере- ходов определяется функцией )./( XP θ Процесс моделирования довольно длительный; он продолжается до тех пор, пока распределение текущих зна- чений процесса не приблизится к стационарному распределению переходов. Таким образом, для заданного распределения )/( XP θ может быть сконст- руировано большое количество марковских цепей с заданными параметра- ми. Методы, которые используют моделирование случайных величин мар- ковской цепью для получения распределения )/( XP θ , относят к методам Монте-Карло для марковских цепей (МКМЦ). Метод генерирования выборки Гиббса представляет собою утонченный способ формирования выборки из общих распределений многомерных пе- ременных путем применения многоразовых выборок из определенных од- номерных условий. Например, для двумерной общей плотности распределе- ния ),( yxf при расчете используют условные плотности распределений )/( yxf и )./( xyf Основной алгоритм генерирования можно описать сле- дующим образом: 48 1) выбор начальных значений 0X и 0Y в соответствии с принятым рас- пределением; 2) генерирование 1+tY по условному распределению );/( tXyf 3) генерирование 1+tX по условному распределению );/( 1+tYxf 4) многократное повторение шагов 2, 3 для того, чтобы цепь достигла сходимости к своему стационарному распределению. В результате получаем набор значений ),,( tt YX которые при ,...,,1 Nt = ,∞→N будут совпадать с общим распределением .),( yxf На практике ис- пользуют достаточно большое количество измерений ,N при котором отвер- гают первые M )( NM < случайных значений итераций Гиббса, которые считают образцами для испытаний на отказ (обычно значение M выбирают равным 10–20 % от ).N Испытание на отказ используется для обеспечения близости выборочных значений к общему распределению ).,( yxf В общем случае сходимость метода Гиббса можно записать так: .,),(),(),(1 1 ∞→→ − ∫∑ += NdxdyyxfyxgYXg MN tt N Mt (18) Заметим также, что рассмотренный метод представляет собой прохож- дение по длинной цепи с сохранением всех случайных измерений после ис- пытаний на отказ для получения выборочных значений Гиббса. Кроме того, можно запускать несколько относительно коротких цепей, используя раз- личные начальные значения при относительно маленьких .N Случайное значение последней итерации Гиббса в каждой цепи используется для фор- мирования текущего значения выборки Гиббса. Итак, выборка Гиббса имеет преимущество при декомпозиции много- мерной задачи оценивания задачами меньшей размерности путем примене- ния полных условных распределений параметров. Эта особенность делает выборку Гиббса простой и широко применимой. Однако довольно часто не- достаточно сводить все значения выборки Гиббса к одномерной задаче. Ес- ли параметры сильно коррелированны, приходится измерять их совместно. Для того чтобы убедиться в сходимости метода Гиббса, часто процедуру повторяют несколько раз с разными начальными значениями. Другой метод — алгоритм Метрополиса — применяется, например, в тех случаях, когда вероятностное распределение известно, за исключением нормирующей константы. Допустим, что необходимо получить случайную выборку из распределения с целевой плотностью ),(xf которая содержит сложную нормирующую константу; при этом прямое получение выборки или трудоемкое или невыполнимое. В соответствии с процедурой выбирают аппроксимирующее распределение, для которого легко генерировать слу- чайные значения, т.е. определяют кандидата на функцию плотности, ).,( xvq Алгоритм Метрополиса генерирует последовательность случайных измере- ний из аппроксимирующего распределения ),,( xvq сходящегося к ).(xf Алгоритм можно представить следующими шагами: 1) выбрать плотность аппроксимирующего распределения );,( xvq 49 2) задать текущее состояние цепи: выбирая значение ,tX сгенерировать значения V по распределению ),( tXvq (которое называют еще «скачкооб- разным»), такое распределение должно быть симметричным, т.е. =),( xvq ),( vxq= для всех v и .x 3) вычислить показатель пропускной способности (или значение скачка): ; )( )( tXf Vfr = (19) 4) если ,1≥r то ;1 VXt =+ если же ,1<r то ⎩ ⎨ ⎧ − =+ .1ьювероятностс ,ьювероятностс 1 rX rV X t t (20) Повторение алгоритма несколько раз при некоторых регулярных неже- стких условиях обеспечивает сходимость последовательности }{ tX к рас- пределению ).(xf Правило принятия и отклонения сгенерированного значения для этого алгоритма может базироваться на таких условиях: (i) если скачок от tX к V увеличивает плотность распределения, то ;1+= tXV (ii) если скачок уменьшает плотность распределения, то VXt =+1 с ве- роятностью, равной показателю ,r и устанавливают tt XX =+1 в противном случае с вероятностью ).1( r− Примерами симметричной плотности ),( xvq могут служить нормальное распределение и распределение t-Стьюдента для средних значений парамет- ров модели. В 1970 г. Хастингс обобщил алгоритм Метрополиса: во-первых, скачко- образное распределение, т.е. аппроксимирующую плотность распределения, не обязательно выбирать симметричной; во-вторых, правило прыжка изменя- ется таким образом: . ),()( ),()( ),(/)( ),(/)( tt t tt t XVqXf VXqVf VXqXf XVqVfr == (21) Такую модификацию называют алгоритмом Метрополиса–Хастингса. Аналогично с помощью настоящего алгоритма можно генерировать случай- ные измерения с любой функцией плотности, при этом симметричность распределения не требуется. Как и в случае выборки Гиббса, необходимо использовать достаточное количество значений N и исключать из рассмотрения первые M значений. Алгоритм Метрополиса–Хастингса можно представить так: .,)()()(1 1 ∞→→ − ∫∑ += NdxxfxgXg MN t N Mt (22) 50 Для алгоритма Метрополиса–Хастингса выбор аппроксимирующей плотности распределения очень важен. Плотность не должна иметь слиш- ком большую или маленькую дисперсию, должна быть достаточно близкой к целевому распределению. Если показатель пропускной способности слиш- ком большой, то цепь будет вырабатывать много маленьких шагов в окрест- ности локальных выбросов, увеличивая корреляцию и время сходимости. Таким образом, независимые выборочные значения получают лишь с боль- шими интервалами. Если же этот показатель слишком низкий, то цепь будет «застревать» в отдельных местах. Оптимальной пропускной способностью считается 20–50 %. Заметим, что индексы Ni ...1= обозначают независимые выборочные значения, которые генерируются по соответствующему распределению. Обозначения Ni ...1= отвечают последовательностям состояний марков- ской цепи. Алгоритм Метрополиса–Хастингса, как обобщенный вариант ал- горитма Метрополиса и выборки Гиббса, в отличие от метода отбраковки выборки, при моделировании N итераций не вырабатывает N независи- мых выборочных значений по целевым распределениям, а сами выборочные значения коррелируют. Это объясняется тем, что методы МКМЦ включают в себя марковский процесс, в котором сгенерирована последовательность состояний },{ tX каждый элемент tX которой имеет распределение вероят- ности, зависящее от предшествующего значения .1−tX В течение значи- тельного промежутка времени марковская цепь должна существенно пере- меститься, чтобы эффективно сгенерировать независимые выборочные зна- чения целевого распределения. Выбор начальной функции плотности позволяет избежать корреляцион- ной зависимости между выборочными. В частности, если в качестве пред- ложения выбрать плотности ),(),( vqxvq = то получим независимую выбор- ку. Если положить ),(),( vxfxvq −= то получим алгоритм Метрополиса– Хатингса со случайным блужданием. Довольно полезным бывает примене- ние композиций и комбинаций, т.е. использование нескольких видов пред- ложений распределения, которые выбирают случайным образом. Например, формируют независимую выборку по априорным распределениям для даль- нейшего анализа апостериорного распределения на больших шагах. Для определения нижней границы количества итераций, необходимых для того, чтобы выборочные значения были независимыми, для метода Мо- трополиса–Хастингса довольно часто применяют эмпирическое правило. Если наибольшая длина в пространстве вероятных состояний равняется ,L то для получения независимых выборочных значений по алгоритму Метро- полиса–Хастингса, где аппроксимирующее распределение моделируется случайным блужданием с размером шага ,ε он должен выполняться за наи- меньшее 2)/( ε≅ LT количество итераций. 51 Назовем преимущества описанных выше методов МКМЦ: — чтобы решить поставленную задачу, необходимо «прогнать» этот метод несколько раз; — используя алгоритм Метрополиса–Хастингса, можно избежать рас- чета предельных распределений и нормирующих констант в плотностях распределений; — можно получить функции параметров ),(θφ исходя из имитирован- ных (смоделированных) распределений );( tθφ — воспроизведение многих естественных форм и других нестандарт- ных особенностей процессов и явлений, которые моделируются. К недостаткам методов МКМЦ относят: — нередуцированность, апериодичность и апостериорность распреде- лений; — диагностика сходимости методов все еще остается эвристической; — выборочные значения, полученные методами МКМЦ, могут быть сильно автокоррелированными, поэтому необходимо иметь большой размер выборки, порядка (103–106) сгенерированных значений. Преодоление описанных недостатков считается творческим процессом. Диагностика сходимости может включать в себя исследование графиков и тестирование равенства распределений между разными частями цепи. Авто- корреляции могут быть частично откорректированы новой параметризацией и группированием выборочных значений. Цепь можно «перезапустить», т.е. повторить выполнение алгоритма, используя разные начальные значения и/или разные генераторы случайных чисел. Для проверки сходимости также можно воспользоваться показателем уменьшения масштаба, который вы- числяется по следующему выражению: . цепивнутридисперсия дисперсияобщаяˆ =R (23) Если значение R̂ приближается к 1, то это обеспечивает сходимость. Однако вопрос сходимости методов МКМЦ все еще остается открытым. Проверка гипотез и выбор модели. Во многих случаях возникает за- дача сравнения альтернативных гипотез и моделей. При наличии точно сформулированных гипотез или моделей, которые сравниваются, практиче- ский способ их сравнения зависит от цели анализа, состояния априорной информации и от наличия функции потерь. Рассмотрим критерии выбора альтернативных моделей в общем случае, например множество параметри- ческих моделей ,,...,, 21 mMMM которые описывают nXX ...,,1 условными распределениями .,,1),,|( miMxf i K=θ Предельное распределение данных предполагает, что .)|(),|()|( ∫ Θ θθθ= dMPMxfMxp iii (24) 52 Главным механизмом формирования статистического вывода является байесовский фактор (коэффициент), который представляет собой отношение апостериорных вероятностей к априорным: , )|( )|( )|(/)( )|(/)|( ),( j i ji ji MxP MxP MPMP xMPxMP jiBF = θ = .,,1, mji K= (25) Преимущество одной модели над другой определяется в соответствия со значением байесовского фактора. Если он существенно превышает 1, то принимается соответствующее решение. Для выбора модели используют критерий наибольшей предельной плотности распределения ,)|( iMxp ко- торый отвечает условию .1),( >jiBF Часто в расчетах используют аппроксимацию (приближение) байесов- ского фактора, а именно информационный критерий Байєса–Шварца (Schwarz Bayesian information criterion), который определяется так: ,ln)( ),|(sup ),|(sup ln2ln2 npp Mxf Mxf BICBF ij jM iM j i −− θ θ −=∆≈− (26) где n — объем выборки; ,dim ji pM = ,,,1, mji K= — размерность модели. Байесовские методы сравнения и выбора альтернативных моделей и ги- потез составляют унифицированное множество принципов, которые счита- ют функциональными и применимыми к широкому классу задач. Такие ме- тоды позволяют учитывать при сравнении и проверке гипотез и моделей ап- риорную информацию. Как показано в [1], байесовский подход к проверке гипотез и моделей — единственный подход, который предусматривает вы- бор действия на основе максимизации ожидаемой полезности. Прогнозное распределение. Важнейшим аспектом байесовского под- хода, как полноценного подхода к формированию статистического вывода, является прогнозирование. Байесовская парадигма дает достаточный объем информации для прогнозирования. В частности, главным инструментом вы- ступает вероятностное распределение, которое используется в качестве про- гнозного. Если *x — новое измерение, то можно записать совместное распределе- ние *x и параметров θ при условии заданной выборки данных :}{ tX .)|(),|()|,( ** xPxxPxxP θθ=θ (27) Прогнозное распределение )|( * xxP получаем, проинтегровав равенст- во (27) по .θ Используя (2) и (3), запишем .)|()|()|,()|( *** ∫∫ ΘΘ θθθ=θθ= dxPxPdxxPxxP (28) 53 Прогнозное распределение )|( * xxP не зависит от .θ Равенство (28) указывает на то, что прогнозное распределение (или прогнозирующая функ- ция распределения вероятности) рассматривается как среднее условных прогнозных распределений ),|( * θxP причем весовой функцией служит апо- стериорное распределение для ,θ т.е. ).|( xP θ Примеры применения МСМС методов к моделям стохастической волатильности. Модель стохастической волатильности Тейлора относится к классу моделей, в которых учитываются изменения дисперсии и ковариа- ций. Для дискретного времени модель волантильности в достаточно про- стом варианте имеет такой вид: , 2 exp t t t hy ε⎟ ⎠ ⎞ ⎜ ⎝ ⎛= ),1,0(Norm~tε ,)(1 ttt hh η+µ−ϕ+µ=+ (29) ,),0(Norm~ 2 ησηt где ty — средняя откорректированная доходность актива на момент време- ни ;t th — логарифм волатильности на момент времени ;t ),(Norm ⋅⋅ — нор- мальное распределение. Параметр ,µ как среднее значение ,th представляет собой масштабирующий коэффициент; ϕ отображает устойчивость вола- тильности; ησ — волатильность логарифмированной переменной. Предпола- гается, что tε и tη не коррелируют между собой, а процесс th стационарный )1( <ϕ и имеет начальное условие )]1/(,[Norm 22 0 ϕ−σµ ηh [12]. Первое уравнение модели (29) в пространстве состояний определяет ус- ловные распределения наблюдений с заданными неизвестными состояниями ,th т.е. это уравнения измерений: , 2 exp| t t tt hhy ε⎟ ⎠ ⎞ ⎜ ⎝ ⎛= .)1,0(Norm~tε (30) Неизвестные состояния определяются марковскими переходами во вре- мени и задаются соответствующим уравнением состояния: ,)(,,,| 1 2 1 tttt hhh η+µ−ϕ+µ=σϕµ −η− ),0(Norm~ 2 ησηt (31) с начальным условием .0h Байесовская модель состоит из общего априорного распределения из всех ненаблюдаемых переменных, трех параметров ,,, 2 ησϕµ неизвестных состояний nhhh ...,,, 10 и общего распределения наблюдений относительно средней доходности ....,,1 nyy Байесовский вывод основывается на апосте- 54 риорном распределении ненаблюдаемых параметров при заданных данных, т.е. на определении общей вероятности распределения ,),,,|(),,|(),,()...,,,,,,( 1 2 1 2 0 2 10 2 ∏ = η−ηηη σφµσφµσϕµ=σϕµ n t ttn hhphpphhhp (32) при этом допускает независимость априорных распределений параметров ϕµ, и .2 ησ В качестве априорного распределения выбираем неинформативное рас- пределение для ;)10,0(Norm~:µµ для ϕ положим ,12 * −φ=ϕ где ~*ϕ ),,(Beta~ βα т.е. это бета-распределение с параметрами 20=α и ,5,1=β которые дают возможность получать значение ϕ в границах .1<ϕ Для 2 ησ выбираем сопряженное обратное гамма-распределение с такими параметра- ми: ).01,0;5(GammaInv~2 ησ Для общего распределения (32) величину ),,,|( 2 1 η− σφµtt hhp можно оп- ределить по уравнениям состояния (31). Правдоподобие ,,|...,,( 1 ϕµnyyp ),...,,, 10 2 nhhhησ определяется уравнением измерений (30) и предположения- ми условий независимости ∏ = η =σϕµ n t ttnn hyphhhyyp 1 10 2 1 ).|()...,,,,,,|...,,( (33) Далее по теореме Байеса совместное апостериорное распределение не- наблюдаемых параметров при заданных данных пропорционально априор- ному распределению и правдоподобию, т.е. ∝σϕµ η |)...,,|...,,,,,( 10 2 nn yyhhp ∏∏ == η−ηη σϕµσϕµσϕµ∝ n t tt n t tt hyphhphpppp 11 2 1 2 0 2 ).|(),,,|(),,|()()()( (34) Распределение для ty можно рассматривать как распределение t-Стью- дента с нулевым средним, переменной дисперсией 2 tσ и неопределенными степенями свободы ϑ для погрешностей наблюдений: ~ty t-Student ),,0( 2 ϑσt . Априорное распределение для ϑ можно избрать из распределения Хи-квадрат с помощью преобразования ,2* +ϑ=ϑ где 2* ~ χϑ (8). Распределение для ty часто рассматривают как нормальное с нулевым средним и переменной дисперсией ,2 tσ т.е. ).,0(Norm~ 2 tty σ С помощью данной модели исследуем устойчивость ресурсной базы банка на примере анализа текущих счетов клиентов. Необходимо проанали- зировать волатильность клиентских счетов на возможность оттока денеж- ных средств и дальнейшего определения их устойчивости. Начальные дан- ные, представляющие собой ежедневные остатки денежных средств клиен- тов }{ tx за полтора года (приблизительно 370 значений), необходимо пре- 55 вратить во временнóй ряд, который будет указывать на среднюю откоррек- тированную доходность удерживаемого актива, т.е. на среднюю волатиль- ность остатков, с помощью преобразования ....,,1,)log(log1loglog 1 11 ntxx n xxy n i iittt =−−−= ∑ = −− (35) На рис. 1 изображена динамика временнóго ряда .ty -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 04.05.06 04.07.06 04.09.06 04.11.06 04.01.07 04.03.07 04.05.07 04.07.07 04.09.07 04.11.07 04 .0 5. 20 06 04 .0 7. 20 06 04 .0 9. 20 06 04 .1 1. 20 06 04 .0 1. 20 07 04 .0 3. 20 07 04 .0 5. 20 07 04 .0 7. 20 07 04 .0 9. 20 07 04 .1 1. 20 07 −1 −0,8 −0,6 −0,4 −0,2 1 0,2 0,4 0,6 0,8 Рис. 1 Для реализации модели использована программная реализация алго- ритма Гиббса в системе WinBUGS (версия 1.4.3), которая является свободно доступным программным продуктом. Результаты работы программы и алго- ритма генерирования выборки Гиббса представлены в таблице. Значения, которые отвечают 2,5 % и 97,5 %, образуют доверительный интервал для оценок, а начало уточнения оценок означает, что первые 10 тыс. случайных значений отбрасываются, т.е. фактические оценки формируются, начиная с 10001-го сгенерированного значения. На рис. 2. представлены выборки значений параметров модели и их апостериорные распределения (вид функции плотности распределения), по- лученные в результате применения метода МКМЦ. Таблица. Байесовское оценивание параметров модели, вычисленных с помощью WinBUGS П ар ам ет р С ре дн ее зн ач ен ие С та нд ар тн ое от кл он ен ие П ог ре ш но ст ь 2, 5 % М ед иа на 97 ,5 % Н ач ал о ут оч не не ни я О бъ ем да нн ы х 2/1 ησ 622,1 230,2 21,24 232,6 595,6 1144,0 10001 10000 µ −4,486 0,1896 0,00804 −4,739 −4,511 −4,116 10001 10000 *ϑ 4,252 1,472 0,08974 2,146 3,97 7,966 10001 10000 *ϕ 0,9881 0,006572 3,377E−4 0,973 0,989 0,9981 10001 10000 56 2/1 ησ 10001 12500 15000 17500 20000 Итерации 0 1000 2000 isigma2eta sample: 10000 0 500 1000 0 0,001 1500 0,002 2/1 ησ 10001 12500 15000 17500 20000 Итерации −8,0 µ −4,0 0,0 mu sample: 10000 -8.0 -6.0 -4.0 -2.0 0 2,0 −8,0 −6,0 −4,0 −2,0 4,0 µ 10001 12500 15000 17500 20000 Итерации 0,0 ∗ϑ 10,0 nustar sample: 10000 0.0 5.0 10.0 0 2,0 0,0 5,0 10,0 4,0 ∗ϑ 10001 12500 15000 17500 20000 Итерации 0,94 ∗ϕ 0,98 phistar sample: 10000 0.94 0.96 0.98 1.0 0 40,0 0,94 0,96 1,0 80,0 0,98 ∗ϕ Рис. 2 Выводы. Применение байесовского подхода к формированию стати- стического вывода дает возможность совсем по иному воспринимать и ис- следовать оцениваемые модели. Он позволяет оперировать не только полу- ченными оценками, а также соответствующими вероятностными распреде- лениями, применять имеющиеся в разных формах априорные знания иссле- дователя относительно оценок параметров модели. Это дает возможность получать большие объемы исходной информации и точнее описывать струк- туру и другие характеристики исследуемой модели. Методика применения вычислительных алгоритмов Монте-Карло, кото- рые базируются на генерировании случайных измерений, тесно связана с байесовской методологией. Этим решается задача генерирования измерений по необходимым вероятностным распределениям. Описанные методы зна- чительно расширяют и улучшают возможности байесовского анализа и сфе- ру его применения в эргатических системах. Одним из преимуществ такого подхода является создание и анализ моделей по данным разной, в частности маленькой, размерности. Рассмотренный пример показывает, что для оценивания таких сложных нелинейных моделей, как модель стохастической волатильности (подобные модели иногда довольно сложно оценивать с помощью известных классиче- ских методов), позволяет получить приемлемые оценки, оперируя априор- ными и апостериорными распределениями параметров и используя алго- ритмы МКМЦ. 57 В целом методы Монте-Карло для марковских цепей трансформируются в относительно несложные для программирования алгоритмы, направлен- ные на реализацию методов байесовского анализа. При этом следует ука- зать, что методы данного класса требуют углубленного анализа и осмысле- ния. В частности, необходимо исследовать точность оценивания сложных нелинейных моделей, сходимость оценок и их прогнозные характеристики, провести сравнение с другими, более известными методами. 1. Зельнер А. Байесовские методы в эконометрии. — М.: Статистика, 1980. — 434 c. 2. Савчук В.П. Байесовские методы статистического оценивания: Надежность технических объектов. — М.: Наука, 1989. — 328 с. 3. Справочник по прикладной статистике / Под ред. Э. Ллойда, У. Ледермана — М.: Фи- нансы и статистика, 1989. — 525 с. 4. Bergman N. Recursive Bayesian estimation: navigation and tracking applications / Linkoping University (Sweden). — 1999. — N 579. — 219 p. 5. Besag J. Markov chain Monte Carlo for statistical inference // Working Paper. — 2001. — N 9. — 25 p. 6. Carlin B.P., Louis T.A. Bayes and empirical Bayesian methods for data analysis. — London: Chapman and Hall, 1996. — 418 p. 7. Chib S., Nardari F., Shepard N. MCMC methods for generalized SVM / TR OX1 1NF. — Ox- ford, UK, 1998. — 24 p. 8. Dueker M. Kalman filtering with truncated normal state variables for Bayesian estimation of macroeconomic models // Working Paper. — 2005. — N 057B. — 55 p. 9. Geweke J., Tanizaki H. Bayesian estimation of state-space models using M-H algorithm and Gibbs sampling // Comput. Statistics and Data Analysis. — 2001. — 37, N 2. — Р. 151–170. 10. Бард Й. Нелинейное оценивание параметров. — М.: Статистика, 1979. — 349 с. 11. Kim S., Shephard N., Chib S. Stochastic volatility: Likelihood inference and comparison with ARCH models // Review of Econom. Stud. — 1998. — 65. — P. 361–393. 12. MacKay D.J.C. Information theory, inference, and learning algorithms. — Cambridge: Cam- bridge University Press, 2003. — 640 p. 13. Nigel Da Costa Lewis Market risk modeling. Applied statistical methods for practitioners. — London: Risk Waters Group Ltd., 2003. — 238 p. 14. Tsay R.S. Analysis of financial time series. — New York: Wiley & Sons, Inc, 2002. — 448 p. Институт прикладного системного анализа Национального технического университета Украины «КПИ», Киев, Международный научно-учебный центр информационных технологий и систем НАН Украины и Министерства образования и науки Украины, Киев Получено 25.12.2007