Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
Проанализированы основные тенденции исследований в области байесовского оценивания математических и статистических моделей процессов произвольной природы с использованием численных методов Монте-Карло. Описывается преимущество байесовского подхода по сравнению с известными, заключающееся в использов...
Saved in:
| Date: | 2009 |
|---|---|
| Main Authors: | , , , |
| Format: | Article |
| Language: | Russian |
| Published: |
Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України
2009
|
| Subjects: | |
| Online Access: | https://nasplib.isofts.kiev.ua/handle/123456789/7631 |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| Journal Title: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Cite this: | Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей / П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова // Кибернетика и вычисл. техника. — 2009. — Вип. 156. — С. 40-57. — Бібліогр.: 14 назв. — рос. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| id |
nasplib_isofts_kiev_ua-123456789-7631 |
|---|---|
| record_format |
dspace |
| spelling |
nasplib_isofts_kiev_ua-123456789-76312025-02-09T21:45:42Z Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей Бидюк, П.И. Павлов, В.В. Борисевич, А.С. Гасанова, Л.Т. Эргатические системы управления Проанализированы основные тенденции исследований в области байесовского оценивания математических и статистических моделей процессов произвольной природы с использованием численных методов Монте-Карло. Описывается преимущество байесовского подхода по сравнению с известными, заключающееся в использовании априорной информации относительно параметров модели. Предложено два правила выбора априорного распределения, которые охватывают наиболее распространенные случаи. Описанный метод дает возможность получать достаточно большие объемы исходной информации, а также точнее описывать структуру и основные характеристики исследуемой модели. 2009 Article Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей / П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова // Кибернетика и вычисл. техника. — 2009. — Вип. 156. — С. 40-57. — Бібліогр.: 14 назв. — рос. 0452-9910 https://nasplib.isofts.kiev.ua/handle/123456789/7631 62-50 ru application/pdf Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України |
| institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| collection |
DSpace DC |
| language |
Russian |
| topic |
Эргатические системы управления Эргатические системы управления |
| spellingShingle |
Эргатические системы управления Эргатические системы управления Бидюк, П.И. Павлов, В.В. Борисевич, А.С. Гасанова, Л.Т. Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей |
| description |
Проанализированы основные тенденции исследований в области байесовского оценивания математических и статистических моделей процессов произвольной природы с использованием численных методов Монте-Карло. Описывается преимущество байесовского подхода по сравнению с известными, заключающееся в использовании априорной информации относительно параметров модели. Предложено два правила выбора априорного распределения, которые охватывают наиболее распространенные случаи. Описанный метод дает возможность получать достаточно большие объемы исходной информации, а также точнее описывать структуру и основные характеристики исследуемой модели. |
| format |
Article |
| author |
Бидюк, П.И. Павлов, В.В. Борисевич, А.С. Гасанова, Л.Т. |
| author_facet |
Бидюк, П.И. Павлов, В.В. Борисевич, А.С. Гасанова, Л.Т. |
| author_sort |
Бидюк, П.И. |
| title |
Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей |
| title_short |
Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей |
| title_full |
Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей |
| title_fullStr |
Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей |
| title_full_unstemmed |
Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей |
| title_sort |
применение метода монте-карло для марковских цепей к оцениванию регрессионных моделей |
| publisher |
Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України |
| publishDate |
2009 |
| topic_facet |
Эргатические системы управления |
| url |
https://nasplib.isofts.kiev.ua/handle/123456789/7631 |
| citation_txt |
Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей / П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова // Кибернетика и вычисл. техника. — 2009. — Вип. 156. — С. 40-57. — Бібліогр.: 14 назв. — рос. |
| work_keys_str_mv |
AT bidûkpi primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei AT pavlovvv primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei AT borisevičas primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei AT gasanovalt primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei |
| first_indexed |
2025-12-01T03:57:36Z |
| last_indexed |
2025-12-01T03:57:36Z |
| _version_ |
1850276804660559872 |
| fulltext |
40
УДК 62-50
П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова
ОЦЕНИВАНИЕ РЕГРЕССИОННЫХ МОДЕЛЕЙ
С ПОМОЩЬЮ МЕТОДА МОНТЕ-КАРЛО
ДЛЯ МАРКОВСКИХ ЦЕПЕЙ
Проанализированы основные тенденции исследований в области байе-
совского оценивания математических и статистических моделей процессов произволь-
ной природы с использованием численных методов Монте-Карло. Описывается пре-
имущество байесовского подхода по сравнению с известными, заключающееся в ис-
пользовании априорной информации относительно параметров модели. Предложено два
правила выбора априорного распределения, которые охватывают наиболее распростра-
ненные случаи. Описанный метод дает возможность получать достаточно большие объ-
емы исходной информации, а также точнее описывать структуру и основные характери-
стики исследуемой модели.
Введение. В настоящий момент актуальной задачей оценивания мате-
матических и статистических моделей является применение байесовской
методологии к процессам различной природы. Байесовский подход, как аль-
тернатива классическому статистическому подходу, позволяет точнее и
полнее оценивать модели, дает возможность получать хорошие результаты в
тех случаях, когда использование классических статистических методов
очень ограничено (например, случаи с короткой выборкой статистических
данных). Байесовский подход открывает новые, довольно широкие возмож-
ности применения методов математического моделирования, а разработан-
ные алгоритмы оценивания на основе генерирования случайных чисел спо-
собствуют решению поставленных задач с помощью современных вычисли-
тельных процедур.
Классический подход направлен на получение эффективных алгоритмов
оценивания и изучение их асимптотических свойств, которые служат осно-
вой для формирования статистического вывода на основе данных относи-
тельно большого объема. В случае коротких выборок использование резуль-
татов асимптотической теории представляется недостаточно обоснованным.
Байесовский подход к формированию статистического вывода основывается
на других теоретических предпосылках. Байесовские методы отличаются от
классических иным подходом к интерпретации истинных параметров моде-
ли. Классический подход исходит из того, что истинные параметры — это
не случайные величины, а аппроксимирующие их оценки случайные, по-
скольку являются функциями наблюдений, которые содержат случайные
процессы [1]. Байесовский подход относится к числу тех подходов, которые
более широко трактуют истинные параметры модели, т.е. случайность рас-
сматривается как имманентное свойство реального физического мира с уче-
том того, что сам физический объект непрерывно испытывает случайные
изменения. Поэтому ищут неслучайные оценки, которые довольно близко
аппроксимируют какую-нибудь статистику случайного параметра, например
его среднее значение или моду. При практическом применении оцененной
© П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова, 2009
ISSN 0452-9910. Кибернетика и вычисл. техника. 2009. Вып. 156
41
модели разница практически несущественна — исследователь работает с
моделью, которая имеет детерминированные коэффициенты. Вероятностные
свойства модели используются для определения погрешности прогноза и
анализа чувствительности модели, вычисления функции потерь и т.д. Оче-
видно, что подобные вычисления можно выполнять при использовании обо-
их подходов.
Байесовская методология исследовалась во многих роботах и использо-
валась в разных областях науки и техники. В частности, А. Зельнер иссле-
довал использование таких методов в эконометрике [1]; В.П. Савчук анали-
зировал надежность технических объектов [2]; известно также много других
направлений применения этих методов. Использование байесовской мето-
дологии в таких случаях сводилось к большим аналитическим исследовани-
ям, которые иногда требовали основательных знаний математики и стати-
стики [3]. Благодаря развитию компьютерной техники появилась возмож-
ность исследовать альтернативные вычислительные алгоритмы, базирую-
щиеся на известных принципах генерирования случайных чисел [4–14] и их
использовании для формирования оценок параметров математических и ста-
тистических моделей случайных процессов.
Постановка задачи. Цель статьи — проанализировать и раскрыть су-
ществующие основные тенденции исследований в направлении байесовско-
го оценивания математических и статистических моделей процессов произ-
вольной природы с использованием численных методов Монте-Карло. Мы
предполагаем, что случайные процессы содержат детерминированную со-
ставляющую, которая может быть описана некоторой выбранной детерми-
нированной функцией, например авторегрессией, регрессией, полиномом и
т.д. Наличие случайной составляющей в исследуемом процессе требует вве-
дения в модель случайных переменных с соответствующими распределе-
ниями и применения методов анализа и описание случайных процессов.
Суть байесовского подхода. Байесовские методы разработаны в ре-
зультате систематических попыток сформулировать и решить проблемы
статистического анализа поведения процессов и систем разной природы на
основе теоремы Байеса. Предпосылкой к использованию этой теоремы яв-
ляются некоторые соотношения между вероятностями событий разного ха-
рактера и спецификации любого события на необходимом уровне [3].
Большинство статистических задач, независимо от методов их решения,
имеют некоторые общие свойства. Для описания конкретной выборки дан-
ных рассматривается несколько вероятностных моделей, как потенциально
приемлемые для исследуемой ситуации. После получения данных возника-
ют выраженные в некотором числовом виде знания относительно приемле-
мости этих моделей.
Отличие байесовской парадигмы от других статистических подходов
состоит в том, что еще до получения данных исследователь рассматривает
степень своего доверия к возможным моделям и представляет ее в виде ве-
роятностей. Как только данные получены, теорема Байеса позволяет иссле-
42
дователю определить еще одно множество вероятностей, которые представ-
ляют собой пересмотренные степени доверия к возможным моделям-
кандидатам с учетом новой информации.
Одним из ключевых преимуществ байесовского подхода является ис-
пользование любой начальной (априорной) информации относительно па-
раметров модели. Такая информация выражается в виде априорной вероят-
ности или функции плотности вероятности. Затем начальные вероятности
«пересматриваются», с помощью выборочных данных, которые находят
свое отображение в виде апостериорного распределения оценок параметров
или переменных модели.
Рассмотрим случайную переменную ,X которая имеет распределение ве-
роятностей, определенное в терминах неизвестного параметра ,θ принадлежа-
щего определенному множеству возможных значений параметра .Θ Для задан-
ного значения xX = функция правдоподобия каждого отдельного значения θ
задается как ).|( θxP В непрерывном случае априорные вероятности для
множества возможных моделей отвечают, в общем случае, распределению
вероятностей на множестве Θ возможных значений параметра. Таким обра-
зом, априорные характеристики (суждение) определяют в виде априорной
плотности вероятности: ,),( Θ∈θθP такой, что
.1)(∫
Θ
=θθ dP (1)
Априорное распределение пересматривается на основе выборочных
данных xX = для получения апостериорной плотности вероятности
),|( xP θ .Θ∈θ Соответственно по теореме Байеса, которую называют прин-
ципом обратной вероятности, устанавливается взаимосвязь между ),|( θxP
)|( xP θ и :)(θP
,,
)(
)()|()|( Θ∈θ
θθ
=θ
xP
PxPxP (2)
где
.)()|()( ∫
Θ
θθθ= dPxPxP (3)
Учитывая, что в (2) знаменатель не зависит от ,θ довольно часто зави-
симость (2) представляют в виде
),()|()|( θθ∝θ PxPxP (4)
где ∝ означает пропорциональность.
Выбор и анализ априорного распределения. Метод определения ап-
риорного распределения зависит от конкретной поставленной задачи. Раз-
личают случаи, когда распределение априорной информации известно, если
даже распределение параметра «неинформативно». В первом случае,
если известен вид функции априорного распределения, то, используя байе-
совский подход (равенство (2) или (4)), можно найти вид апостериорного
распределения.
43
Существуют случаи, когда априорное и апостериорное распределения
относятся к одному и тому же классу распределений. Такие распределения
называют сопряженными. Использование их для численных методов в байе-
совском подходе означает, что существует замкнутая форма решения для
условных апостериорных распределений [14]. Например nXX ...,,1 рассмат-
риваются как случайная выборка из нормального распределения с неизвест-
ным средним значением µ и известной дисперсией .2σ Также допускается,
что априорное распределение µ является нормальным со средним значени-
ем 0µ и дисперсией .2
0σ Тогда апостериорное распределение µ при выбо-
рочных значениях nXX ...,,1 и заданном априорном распределении также
будет нормальным со средним значением *µ и дисперсией ,2
∗σ которые оп-
ределяют следующим образом:
2
0
2
2
00
2
*
σ+σ
σ+µσ
=µ
n
Xn и ,2
0
2
2
0
2
2
σ+σ
σσ
=σ∗
n
(5)
где ∑
=
=
n
i
i nXX
1
/ — выборочное среднее.
В байесовском анализе довольно часто удобно использовать параметр
точности 2/1 σ=η (т.е. обратный к дисперсии ).2σ Если для априорного
распределения ,/1 2
00 σ=η то для апостериорного ./1 2
* ∗σ=η Теперь равен-
ство (5) можно представить в следующем виде:
η+η=η n0* и .
*
0
*
0
* Xn
η
η
+µ
η
η
=µ (6)
Таким образом, для полученной нормальной случайной выборки ин-
формация о µ содержится в выборочном среднем ,X которое является дос-
таточной статистикой для .µ Точность описания распределения определяет-
ся отношением :X ,/ 2 η=ση n т.е. суммой двух компонент: точностью
представления априорного распределения и выборочных данных, а апосте-
риорное среднее является взвешенным средним априорного среднего, и вы-
борочного среднего с весовым коэффициентом, пропорциональным точно-
сти. Приведенный результат свидетельствует о том, что вклад априорного
распределения уменьшается с возрастанием размера выборки .n Подробное
описание получения этого результата можно найти в [1].
Довольно часто рассматривают так называемую байесовскую асимпто-
тику, т.е. если ∞→n для апостериорного распределения имеет значение
только правдоподобие. Это достаточно просто можно показать с помощью
равенства (4), если его представить следующим образом [2]:
.)()()|()|( )|(ln θθ=θθ∝θ xPePPxPxP (7)
44
Если предположить, что априорное распределение )(θP и функция
правдоподобия )|( θxP невырожденные и имеют непрерывную производ-
ную, и )|( θxP имеет единственный максимум ,ˆ
maxθ являющийся оценкой
максимального правдоподобия, то )]|(ln[ θxP имеет порядок n, а )(θP не
зависит от объема выборки. Таким образом, интуитивно понятно, что мно-
житель правдоподобия при больших значениях объема выборки будет до-
минировать в априорном распределении.
Во многих случаях начальная информация о значениях оцениваемых
параметров совсем неизвестна, т.е. неизвестный вид априорного распреде-
ления ).(θP Другими словами, параметр θ «неинформативный». Для такого
случая предложено два правила выбора априорного распределения, которые
охватывают наиболее распространенные случаи [12]. Если существует па-
раметр на конечном интервале или на интервале от ∞− к ,∞+ то его апри-
орная вероятность считается равномерно распределенной. Если же можно
обосновать, что параметр принимает значение на интервале от 0 до ,∞ то
вероятность его логарифма следует считать равномерно распределенной.
Первое правило Джеффриса для представления неопределенности зна-
чения формулируется следующим образом:
,,)( +∞<θ<∞−θ∼θθ ddP (8)
т.е. .const)( ∼θP Это прямоугольное распределение (или же функция плот-
ности вероятности) является несобственным, поскольку .)( ∞=θθ∫
∞
∞−
dP Из-
вестно, что если ∞+<θ<∞− — достоверное событие, то вместо 1 для запи-
си вероятности такого события используется .∞
Второе правило Джеффриса применимо к параметрам, природа которых
позволяет предположить, что они принимают значение от 0 до .∞ По анало-
гии распределение логарифма параметра будет равномерным, т.е. если
,logσ=θ то априорная функция плотности вероятности для θ будет иметь
вид (8). Поскольку ,/ σσ=θ dd то (8) предполагает использование равенства
+∞<σ<
σ
σ
∼σσ 0,)( ddP (9)
в качестве несобственной функции плотности вероятности, которая будет
представлять неопределенность значения параметра .σ Таким образом, для
неинформативного параметра, например для дисперсии, априорное распре-
деление задают в виде ./1)( σ∝σP
Отметим такое важное свойство, как чувствительность априорного рас-
пределения. При выборе разных априорных распределений получают раз-
ные апостериорные распределения. В таком случае полезно оценить степень
влияния отличий. На практике апостериорное распределение используют
как априорное, при этом возведя его в некоторую степень ,α где .10 <α<
45
Вычислительные методы байесовского анализа. Байесовский подход
довольно широко использует информацию о вероятностном распределении
параметров. До конца 80-х годов прошлого века в качестве вычислительных
методов для вывода байесовских оценок параметров и их апостериорных
распределений использовали аналитические методы: сопряженные
априорные распределения и аппроксимацию [14]. С начала 90-х годов бла-
годаря бурному развитию компьютерных технологий начали распростра-
няться новые методы вычислений, которые базируются на непосредствен-
ном генерировании (моделировании выборки) необходимых измерений по
апостериорным распределениям.
Генерирование случайных величин с заданным распределением — со-
временный подход, который дает возможность работать в условиях, когда
существуют асимптотические аналитические результаты для свойств оценок
и их статистических распределений, но неизвестно, какие свойства будут
иметь оценки при малых выборках данных. Выделяют два общих подхода к
моделированию: историческое моделирование и моделирование по принци-
пу Монте-Карло [14]. Метод Монте-Карло, предложенный Дж. фон Нейма-
ном и С. Уламом в 1940-х гг., относится к моделированию процессов с ис-
пользованием генератора случайных чисел.
Методы моделирования Монте-Карло делятся на итеративные и неите-
ративные. К неитеративному относят метод генерирования выборки по важ-
ности (importance sampling) и метод отбраковки или принятие выборки
(rejection or acceptance sampling) [5].
Неитеративные методы Монте-Карло. Рассмотрим некоторое вероят-
ностное распределение или вероятностную плотность распределения )(xp
для дискретного или непрерывного процесса. Распределение )(xp называют
еще целевым распределением, или целевой плотностью распределения. Не-
обходимо сгенерировать выборочные значения N
iiX 1}{ = по распределению
)(xp и найти их статистическую оценку, т.е. оценить математическое ожи-
дание функции )(xφ по распределению:
.)()(][ ∫ φ=φ dxxpxE p (10)
Допустим, что x — вектор из nR с компонентами ,iX а )(xφ — неко-
торая функция. Для выборочных значений N
iiX 1}{ = можно записать
.)(1ˆ ∑φ=Φ
i
iX
N
(11)
Поскольку вектор N
iiX 1}{ = сгенерирован по ),(xp то математическое
ожидание Φ̂ равняется ];[φpE при увеличении количества выборочных
значений N дисперсия Φ̂ пропорционально уменьшается.
Моделирование выборки по важности — это не метод генерирования
выборочных значений N
iiX 1}{ = по распределению ),(xp а только метод оце-
46
нивания ожидания ),(xφ представленного выражением (10). Основная идея
метода состоит в моделировании по другим, более простым аппроксими-
рующим распределениям, например ),(xq которое довольно близко к целе-
вому распределению ).(xp Алгоритм моделирования состоит из следующих
основных шагов:
1) выбираем значения ,iX сгенерированные по );(xq
2) поскольку моделирование происходило по «ошибочному» распреде-
лению, формируем весовой коэффициент
;
)(
)(
i
i
i Xq
Xp
=ω (12)
3) находим оценку искомой величины ][φpE из выражения
∑ φω=Φ
i
ii X
N
)(1ˆ или .
)(
ˆ
∑
∑
ω
φω
=Φ
i
i
i
ii X
(13)
Основной недостаток такого метода заключается в том, что относитель-
ное возрастание дисперсии, обусловленное непостоянными весовыми коэф-
фициентами, имеет большую зависимость от выбора аппроксимирующего
распределения ),(xq а также то, что все выборочные значения нивелируют-
ся небольшим количеством значений с большими весовыми коэффициента-
ми.
Метод отбраковки, или принятия выборки состоит в моделировании по
другим аппроксимирующим распределениям, но перерасчет весового коэф-
фициента выполняется в процессе генерирования, при этом сохраняется
только часть смоделированных точек измерений. Основной алгоритм гене-
рирования выборки состоит из следующих шагов:
1) отыскиваем масштабирующую константу ,M такую что
);()( xqMxpx ≤∀ (14)
2) независимо выбираем значения ,iX сгенерированные по )(xq и ,iU
равномерно распределенные на интервале ];1,0[
3) если ),()( iii XpXqUM < то принимаем сгенерированные значе-
ния iX , в противном случае — отбрасываем (отбраковываем, отсюда и на-
звание метода) и возвращаемся к шагу 2;
4) шаги 2), 3) повторяем до тех пор, пока не найдем N значений .iX
Недостатком этого алгоритма, как и в предшествующем случае, являют-
ся проблемы при больших размерах выборки; алгоритм вырабатывает «при-
емлемые» случайные числа только за M/1 времени, если распределения
совпадают. Если M слишком большое, то смоделированные значения от-
брасываются.
Таким образом, описанные выше методы работают удовлетворительно
только в тех случаях, когда избранное для генерирования распределение
47
)(xq подобно целевому распределению ).(xp Однако в большинстве слож-
ных задач очень тяжело создать отдельное распределение, которое удовле-
творяло бы всем свойствам.
Итерационные методы Монте-Карло для марковских цепей. Итера-
ционные методы моделирования Монте-Карло базируются на идее построе-
ния марковской цепи и, в отличие от предшествующих методов, используют
варианты (кандидаты) распределения )(xq (плотностей распределения), ко-
торые зависят только от текущего состояния iX [5, 13]. К этим методам
можно отнести генерирование выборки по Гиббсу, алгоритм Метрополиса,
Метрополиса–Хастингса и др.
Рассмотрим стохастический процесс },{ tX где .Θ∈tX Если при задан-
ном значении tX значение hX (при )th > не зависят от значений sX при
,ts < то он марковский. Иначе говоря, }{ tX — марковский процесс, если
его условная функция распределения удовлетворяет равенству
.),/(),/( thXXPtsXXP thsh >=≤ (15)
Если }{ tX — дискретный стохастический процесс, то его основная ха-
рактеристика имеет вид
.),/(,...),/( 1 thXXPXXXP thtth >=− (16)
Если A — подмножество ,Θ то функция
,),/(),,( thXAXPAhP tht >θ=∈=θ (17)
выступает как функция переходной вероятности марковского процесса. Ес-
ли переходная вероятность зависит от ,th − а не от ,t то процесс имеет ста-
ционарную переходную вероятность.
Основой моделирования с помощью марковской цепи служит построе-
ние марковского процесса, для которого стационарное распределение пере-
ходов определяется функцией )./( XP θ Процесс моделирования довольно
длительный; он продолжается до тех пор, пока распределение текущих зна-
чений процесса не приблизится к стационарному распределению переходов.
Таким образом, для заданного распределения )/( XP θ может быть сконст-
руировано большое количество марковских цепей с заданными параметра-
ми. Методы, которые используют моделирование случайных величин мар-
ковской цепью для получения распределения )/( XP θ , относят к методам
Монте-Карло для марковских цепей (МКМЦ).
Метод генерирования выборки Гиббса представляет собою утонченный
способ формирования выборки из общих распределений многомерных пе-
ременных путем применения многоразовых выборок из определенных од-
номерных условий. Например, для двумерной общей плотности распределе-
ния ),( yxf при расчете используют условные плотности распределений
)/( yxf и )./( xyf Основной алгоритм генерирования можно описать сле-
дующим образом:
48
1) выбор начальных значений 0X и 0Y в соответствии с принятым рас-
пределением;
2) генерирование 1+tY по условному распределению );/( tXyf
3) генерирование 1+tX по условному распределению );/( 1+tYxf
4) многократное повторение шагов 2, 3 для того, чтобы цепь достигла
сходимости к своему стационарному распределению.
В результате получаем набор значений ),,( tt YX которые при ,...,,1 Nt =
,∞→N будут совпадать с общим распределением .),( yxf На практике ис-
пользуют достаточно большое количество измерений ,N при котором отвер-
гают первые M )( NM < случайных значений итераций Гиббса, которые
считают образцами для испытаний на отказ (обычно значение M выбирают
равным 10–20 % от ).N Испытание на отказ используется для обеспечения
близости выборочных значений к общему распределению ).,( yxf В общем
случае сходимость метода Гиббса можно записать так:
.,),(),(),(1
1
∞→→
− ∫∑
+=
NdxdyyxfyxgYXg
MN tt
N
Mt
(18)
Заметим также, что рассмотренный метод представляет собой прохож-
дение по длинной цепи с сохранением всех случайных измерений после ис-
пытаний на отказ для получения выборочных значений Гиббса. Кроме того,
можно запускать несколько относительно коротких цепей, используя раз-
личные начальные значения при относительно маленьких .N Случайное
значение последней итерации Гиббса в каждой цепи используется для фор-
мирования текущего значения выборки Гиббса.
Итак, выборка Гиббса имеет преимущество при декомпозиции много-
мерной задачи оценивания задачами меньшей размерности путем примене-
ния полных условных распределений параметров. Эта особенность делает
выборку Гиббса простой и широко применимой. Однако довольно часто не-
достаточно сводить все значения выборки Гиббса к одномерной задаче. Ес-
ли параметры сильно коррелированны, приходится измерять их совместно.
Для того чтобы убедиться в сходимости метода Гиббса, часто процедуру
повторяют несколько раз с разными начальными значениями.
Другой метод — алгоритм Метрополиса — применяется, например,
в тех случаях, когда вероятностное распределение известно, за исключением
нормирующей константы. Допустим, что необходимо получить случайную
выборку из распределения с целевой плотностью ),(xf которая содержит
сложную нормирующую константу; при этом прямое получение выборки
или трудоемкое или невыполнимое. В соответствии с процедурой выбирают
аппроксимирующее распределение, для которого легко генерировать слу-
чайные значения, т.е. определяют кандидата на функцию плотности, ).,( xvq
Алгоритм Метрополиса генерирует последовательность случайных измере-
ний из аппроксимирующего распределения ),,( xvq сходящегося к ).(xf
Алгоритм можно представить следующими шагами:
1) выбрать плотность аппроксимирующего распределения );,( xvq
49
2) задать текущее состояние цепи: выбирая значение ,tX сгенерировать
значения V по распределению ),( tXvq (которое называют еще «скачкооб-
разным»), такое распределение должно быть симметричным, т.е. =),( xvq
),( vxq= для всех v и .x
3) вычислить показатель пропускной способности (или значение скачка):
;
)(
)(
tXf
Vfr = (19)
4) если ,1≥r то ;1 VXt =+ если же ,1<r то
⎩
⎨
⎧
−
=+ .1ьювероятностс
,ьювероятностс
1 rX
rV
X
t
t (20)
Повторение алгоритма несколько раз при некоторых регулярных неже-
стких условиях обеспечивает сходимость последовательности }{ tX к рас-
пределению ).(xf
Правило принятия и отклонения сгенерированного значения для этого
алгоритма может базироваться на таких условиях:
(i) если скачок от tX к V увеличивает плотность распределения, то
;1+= tXV
(ii) если скачок уменьшает плотность распределения, то VXt =+1 с ве-
роятностью, равной показателю ,r и устанавливают tt XX =+1 в противном
случае с вероятностью ).1( r−
Примерами симметричной плотности ),( xvq могут служить нормальное
распределение и распределение t-Стьюдента для средних значений парамет-
ров модели.
В 1970 г. Хастингс обобщил алгоритм Метрополиса: во-первых, скачко-
образное распределение, т.е. аппроксимирующую плотность распределения,
не обязательно выбирать симметричной; во-вторых, правило прыжка изменя-
ется таким образом:
.
),()(
),()(
),(/)(
),(/)(
tt
t
tt
t
XVqXf
VXqVf
VXqXf
XVqVfr == (21)
Такую модификацию называют алгоритмом Метрополиса–Хастингса.
Аналогично с помощью настоящего алгоритма можно генерировать случай-
ные измерения с любой функцией плотности, при этом симметричность
распределения не требуется.
Как и в случае выборки Гиббса, необходимо использовать достаточное
количество значений N и исключать из рассмотрения первые M значений.
Алгоритм Метрополиса–Хастингса можно представить так:
.,)()()(1
1
∞→→
− ∫∑
+=
NdxxfxgXg
MN t
N
Mt
(22)
50
Для алгоритма Метрополиса–Хастингса выбор аппроксимирующей
плотности распределения очень важен. Плотность не должна иметь слиш-
ком большую или маленькую дисперсию, должна быть достаточно близкой
к целевому распределению. Если показатель пропускной способности слиш-
ком большой, то цепь будет вырабатывать много маленьких шагов в окрест-
ности локальных выбросов, увеличивая корреляцию и время сходимости.
Таким образом, независимые выборочные значения получают лишь с боль-
шими интервалами. Если же этот показатель слишком низкий, то цепь будет
«застревать» в отдельных местах. Оптимальной пропускной способностью
считается 20–50 %.
Заметим, что индексы Ni ...1= обозначают независимые выборочные
значения, которые генерируются по соответствующему распределению.
Обозначения Ni ...1= отвечают последовательностям состояний марков-
ской цепи. Алгоритм Метрополиса–Хастингса, как обобщенный вариант ал-
горитма Метрополиса и выборки Гиббса, в отличие от метода отбраковки
выборки, при моделировании N итераций не вырабатывает N независи-
мых выборочных значений по целевым распределениям, а сами выборочные
значения коррелируют. Это объясняется тем, что методы МКМЦ включают
в себя марковский процесс, в котором сгенерирована последовательность
состояний },{ tX каждый элемент tX которой имеет распределение вероят-
ности, зависящее от предшествующего значения .1−tX В течение значи-
тельного промежутка времени марковская цепь должна существенно пере-
меститься, чтобы эффективно сгенерировать независимые выборочные зна-
чения целевого распределения.
Выбор начальной функции плотности позволяет избежать корреляцион-
ной зависимости между выборочными. В частности, если в качестве пред-
ложения выбрать плотности ),(),( vqxvq = то получим независимую выбор-
ку. Если положить ),(),( vxfxvq −= то получим алгоритм Метрополиса–
Хатингса со случайным блужданием. Довольно полезным бывает примене-
ние композиций и комбинаций, т.е. использование нескольких видов пред-
ложений распределения, которые выбирают случайным образом. Например,
формируют независимую выборку по априорным распределениям для даль-
нейшего анализа апостериорного распределения на больших шагах.
Для определения нижней границы количества итераций, необходимых
для того, чтобы выборочные значения были независимыми, для метода Мо-
трополиса–Хастингса довольно часто применяют эмпирическое правило.
Если наибольшая длина в пространстве вероятных состояний равняется ,L
то для получения независимых выборочных значений по алгоритму Метро-
полиса–Хастингса, где аппроксимирующее распределение моделируется
случайным блужданием с размером шага ,ε он должен выполняться за наи-
меньшее 2)/( ε≅ LT количество итераций.
51
Назовем преимущества описанных выше методов МКМЦ:
— чтобы решить поставленную задачу, необходимо «прогнать» этот
метод несколько раз;
— используя алгоритм Метрополиса–Хастингса, можно избежать рас-
чета предельных распределений и нормирующих констант в плотностях
распределений;
— можно получить функции параметров ),(θφ исходя из имитирован-
ных (смоделированных) распределений );( tθφ
— воспроизведение многих естественных форм и других нестандарт-
ных особенностей процессов и явлений, которые моделируются.
К недостаткам методов МКМЦ относят:
— нередуцированность, апериодичность и апостериорность распреде-
лений;
— диагностика сходимости методов все еще остается эвристической;
— выборочные значения, полученные методами МКМЦ, могут быть
сильно автокоррелированными, поэтому необходимо иметь большой размер
выборки, порядка (103–106) сгенерированных значений.
Преодоление описанных недостатков считается творческим процессом.
Диагностика сходимости может включать в себя исследование графиков и
тестирование равенства распределений между разными частями цепи. Авто-
корреляции могут быть частично откорректированы новой параметризацией
и группированием выборочных значений. Цепь можно «перезапустить», т.е.
повторить выполнение алгоритма, используя разные начальные значения
и/или разные генераторы случайных чисел. Для проверки сходимости также
можно воспользоваться показателем уменьшения масштаба, который вы-
числяется по следующему выражению:
.
цепивнутридисперсия
дисперсияобщаяˆ =R (23)
Если значение R̂ приближается к 1, то это обеспечивает сходимость.
Однако вопрос сходимости методов МКМЦ все еще остается открытым.
Проверка гипотез и выбор модели. Во многих случаях возникает за-
дача сравнения альтернативных гипотез и моделей. При наличии точно
сформулированных гипотез или моделей, которые сравниваются, практиче-
ский способ их сравнения зависит от цели анализа, состояния априорной
информации и от наличия функции потерь. Рассмотрим критерии выбора
альтернативных моделей в общем случае, например множество параметри-
ческих моделей ,,...,, 21 mMMM которые описывают nXX ...,,1 условными
распределениями .,,1),,|( miMxf i K=θ Предельное распределение данных
предполагает, что
.)|(),|()|( ∫
Θ
θθθ= dMPMxfMxp iii (24)
52
Главным механизмом формирования статистического вывода является
байесовский фактор (коэффициент), который представляет собой отношение
апостериорных вероятностей к априорным:
,
)|(
)|(
)|(/)(
)|(/)|(
),(
j
i
ji
ji
MxP
MxP
MPMP
xMPxMP
jiBF =
θ
= .,,1, mji K= (25)
Преимущество одной модели над другой определяется в соответствия
со значением байесовского фактора. Если он существенно превышает 1, то
принимается соответствующее решение. Для выбора модели используют
критерий наибольшей предельной плотности распределения ,)|( iMxp ко-
торый отвечает условию .1),( >jiBF
Часто в расчетах используют аппроксимацию (приближение) байесов-
ского фактора, а именно информационный критерий Байєса–Шварца
(Schwarz Bayesian information criterion), который определяется так:
,ln)(
),|(sup
),|(sup
ln2ln2 npp
Mxf
Mxf
BICBF ij
jM
iM
j
i −−
θ
θ
−=∆≈− (26)
где n — объем выборки; ,dim ji pM = ,,,1, mji K= — размерность модели.
Байесовские методы сравнения и выбора альтернативных моделей и ги-
потез составляют унифицированное множество принципов, которые счита-
ют функциональными и применимыми к широкому классу задач. Такие ме-
тоды позволяют учитывать при сравнении и проверке гипотез и моделей ап-
риорную информацию. Как показано в [1], байесовский подход к проверке
гипотез и моделей — единственный подход, который предусматривает вы-
бор действия на основе максимизации ожидаемой полезности.
Прогнозное распределение. Важнейшим аспектом байесовского под-
хода, как полноценного подхода к формированию статистического вывода,
является прогнозирование. Байесовская парадигма дает достаточный объем
информации для прогнозирования. В частности, главным инструментом вы-
ступает вероятностное распределение, которое используется в качестве про-
гнозного.
Если *x — новое измерение, то можно записать совместное распределе-
ние *x и параметров θ при условии заданной выборки данных :}{ tX
.)|(),|()|,( ** xPxxPxxP θθ=θ (27)
Прогнозное распределение )|( * xxP получаем, проинтегровав равенст-
во (27) по .θ Используя (2) и (3), запишем
.)|()|()|,()|( *** ∫∫
ΘΘ
θθθ=θθ= dxPxPdxxPxxP (28)
53
Прогнозное распределение )|( * xxP не зависит от .θ Равенство (28)
указывает на то, что прогнозное распределение (или прогнозирующая функ-
ция распределения вероятности) рассматривается как среднее условных
прогнозных распределений ),|( * θxP причем весовой функцией служит апо-
стериорное распределение для ,θ т.е. ).|( xP θ
Примеры применения МСМС методов к моделям стохастической
волатильности. Модель стохастической волатильности Тейлора относится
к классу моделей, в которых учитываются изменения дисперсии и ковариа-
ций. Для дискретного времени модель волантильности в достаточно про-
стом варианте имеет такой вид:
,
2
exp t
t
t
hy ε⎟
⎠
⎞
⎜
⎝
⎛=
),1,0(Norm~tε ,)(1 ttt hh η+µ−ϕ+µ=+ (29)
,),0(Norm~ 2
ησηt
где ty — средняя откорректированная доходность актива на момент време-
ни ;t th — логарифм волатильности на момент времени ;t ),(Norm ⋅⋅ — нор-
мальное распределение. Параметр ,µ как среднее значение ,th представляет
собой масштабирующий коэффициент; ϕ отображает устойчивость вола-
тильности; ησ — волатильность логарифмированной переменной. Предпола-
гается, что tε и tη не коррелируют между собой, а процесс th стационарный
)1( <ϕ и имеет начальное условие )]1/(,[Norm 22
0 ϕ−σµ ηh [12].
Первое уравнение модели (29) в пространстве состояний определяет ус-
ловные распределения наблюдений с заданными неизвестными состояниями
,th т.е. это уравнения измерений:
,
2
exp| t
t
tt
hhy ε⎟
⎠
⎞
⎜
⎝
⎛= .)1,0(Norm~tε (30)
Неизвестные состояния определяются марковскими переходами во вре-
мени и задаются соответствующим уравнением состояния:
,)(,,,| 1
2
1 tttt hhh η+µ−ϕ+µ=σϕµ −η− ),0(Norm~ 2
ησηt (31)
с начальным условием .0h
Байесовская модель состоит из общего априорного распределения из
всех ненаблюдаемых переменных, трех параметров ,,, 2
ησϕµ неизвестных
состояний nhhh ...,,, 10 и общего распределения наблюдений относительно
средней доходности ....,,1 nyy Байесовский вывод основывается на апосте-
54
риорном распределении ненаблюдаемых параметров при заданных данных,
т.е. на определении общей вероятности распределения
,),,,|(),,|(),,()...,,,,,,(
1
2
1
2
0
2
10
2 ∏
=
η−ηηη σφµσφµσϕµ=σϕµ
n
t
ttn hhphpphhhp (32)
при этом допускает независимость априорных распределений параметров
ϕµ, и .2
ησ
В качестве априорного распределения выбираем неинформативное рас-
пределение для ;)10,0(Norm~:µµ для ϕ положим ,12 * −φ=ϕ где ~*ϕ
),,(Beta~ βα т.е. это бета-распределение с параметрами 20=α и ,5,1=β
которые дают возможность получать значение ϕ в границах .1<ϕ Для 2
ησ
выбираем сопряженное обратное гамма-распределение с такими параметра-
ми: ).01,0;5(GammaInv~2
ησ
Для общего распределения (32) величину ),,,|( 2
1 η− σφµtt hhp можно оп-
ределить по уравнениям состояния (31). Правдоподобие ,,|...,,( 1 ϕµnyyp
),...,,, 10
2
nhhhησ определяется уравнением измерений (30) и предположения-
ми условий независимости
∏
=
η =σϕµ
n
t
ttnn hyphhhyyp
1
10
2
1 ).|()...,,,,,,|...,,( (33)
Далее по теореме Байеса совместное апостериорное распределение не-
наблюдаемых параметров при заданных данных пропорционально априор-
ному распределению и правдоподобию, т.е.
∝σϕµ η |)...,,|...,,,,,( 10
2
nn yyhhp
∏∏
==
η−ηη σϕµσϕµσϕµ∝
n
t
tt
n
t
tt hyphhphpppp
11
2
1
2
0
2 ).|(),,,|(),,|()()()( (34)
Распределение для ty можно рассматривать как распределение t-Стью-
дента с нулевым средним, переменной дисперсией 2
tσ и неопределенными
степенями свободы ϑ для погрешностей наблюдений: ~ty t-Student ),,0( 2 ϑσt .
Априорное распределение для ϑ можно избрать из распределения Хи-квадрат
с помощью преобразования ,2* +ϑ=ϑ где 2* ~ χϑ (8). Распределение для
ty часто рассматривают как нормальное с нулевым средним и переменной
дисперсией ,2
tσ т.е. ).,0(Norm~ 2
tty σ
С помощью данной модели исследуем устойчивость ресурсной базы
банка на примере анализа текущих счетов клиентов. Необходимо проанали-
зировать волатильность клиентских счетов на возможность оттока денеж-
ных средств и дальнейшего определения их устойчивости. Начальные дан-
ные, представляющие собой ежедневные остатки денежных средств клиен-
тов }{ tx за полтора года (приблизительно 370 значений), необходимо пре-
55
вратить во временнóй ряд, который будет указывать на среднюю откоррек-
тированную доходность удерживаемого актива, т.е. на среднюю волатиль-
ность остатков, с помощью преобразования
....,,1,)log(log1loglog
1
11 ntxx
n
xxy
n
i
iittt =−−−= ∑
=
−− (35)
На рис. 1 изображена динамика временнóго ряда .ty
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
04.05.06 04.07.06 04.09.06 04.11.06 04.01.07 04.03.07 04.05.07 04.07.07 04.09.07 04.11.07
04
.0
5.
20
06
04
.0
7.
20
06
04
.0
9.
20
06
04
.1
1.
20
06
04
.0
1.
20
07
04
.0
3.
20
07
04
.0
5.
20
07
04
.0
7.
20
07
04
.0
9.
20
07
04
.1
1.
20
07
−1
−0,8
−0,6
−0,4
−0,2
1
0,2
0,4
0,6
0,8
Рис. 1
Для реализации модели использована программная реализация алго-
ритма Гиббса в системе WinBUGS (версия 1.4.3), которая является свободно
доступным программным продуктом. Результаты работы программы и алго-
ритма генерирования выборки Гиббса представлены в таблице. Значения,
которые отвечают 2,5 % и 97,5 %, образуют доверительный интервал для
оценок, а начало уточнения оценок означает, что первые 10 тыс. случайных
значений отбрасываются, т.е. фактические оценки формируются, начиная с
10001-го сгенерированного значения.
На рис. 2. представлены выборки значений параметров модели и их
апостериорные распределения (вид функции плотности распределения), по-
лученные в результате применения метода МКМЦ.
Таблица. Байесовское оценивание параметров модели, вычисленных с помощью
WinBUGS
П
ар
ам
ет
р
С
ре
дн
ее
зн
ач
ен
ие
С
та
нд
ар
тн
ое
от
кл
он
ен
ие
П
ог
ре
ш
но
ст
ь
2,
5
%
М
ед
иа
на
97
,5
%
Н
ач
ал
о
ут
оч
не
не
ни
я
О
бъ
ем
да
нн
ы
х
2/1 ησ 622,1 230,2 21,24 232,6 595,6 1144,0 10001 10000
µ −4,486 0,1896 0,00804 −4,739 −4,511 −4,116 10001 10000
*ϑ 4,252 1,472 0,08974 2,146 3,97 7,966 10001 10000
*ϕ 0,9881 0,006572 3,377E−4 0,973 0,989 0,9981 10001 10000
56
2/1 ησ
10001 12500 15000 17500 20000
Итерации
0
1000
2000
isigma2eta sample: 10000
0 500 1000
0
0,001
1500
0,002
2/1 ησ
10001 12500 15000 17500 20000
Итерации
−8,0
µ
−4,0
0,0
mu sample: 10000
-8.0 -6.0 -4.0 -2.0
0
2,0
−8,0 −6,0 −4,0 −2,0
4,0
µ
10001 12500 15000 17500 20000
Итерации
0,0
∗ϑ
10,0
nustar sample: 10000
0.0 5.0 10.0
0
2,0
0,0 5,0 10,0
4,0
∗ϑ
10001 12500 15000 17500 20000
Итерации
0,94
∗ϕ
0,98
phistar sample: 10000
0.94 0.96 0.98 1.0
0
40,0
0,94 0,96 1,0
80,0
0,98
∗ϕ
Рис. 2
Выводы. Применение байесовского подхода к формированию стати-
стического вывода дает возможность совсем по иному воспринимать и ис-
следовать оцениваемые модели. Он позволяет оперировать не только полу-
ченными оценками, а также соответствующими вероятностными распреде-
лениями, применять имеющиеся в разных формах априорные знания иссле-
дователя относительно оценок параметров модели. Это дает возможность
получать большие объемы исходной информации и точнее описывать струк-
туру и другие характеристики исследуемой модели.
Методика применения вычислительных алгоритмов Монте-Карло, кото-
рые базируются на генерировании случайных измерений, тесно связана с
байесовской методологией. Этим решается задача генерирования измерений
по необходимым вероятностным распределениям. Описанные методы зна-
чительно расширяют и улучшают возможности байесовского анализа и сфе-
ру его применения в эргатических системах. Одним из преимуществ такого
подхода является создание и анализ моделей по данным разной, в частности
маленькой, размерности.
Рассмотренный пример показывает, что для оценивания таких сложных
нелинейных моделей, как модель стохастической волатильности (подобные
модели иногда довольно сложно оценивать с помощью известных классиче-
ских методов), позволяет получить приемлемые оценки, оперируя априор-
ными и апостериорными распределениями параметров и используя алго-
ритмы МКМЦ.
57
В целом методы Монте-Карло для марковских цепей трансформируются
в относительно несложные для программирования алгоритмы, направлен-
ные на реализацию методов байесовского анализа. При этом следует ука-
зать, что методы данного класса требуют углубленного анализа и осмысле-
ния. В частности, необходимо исследовать точность оценивания сложных
нелинейных моделей, сходимость оценок и их прогнозные характеристики,
провести сравнение с другими, более известными методами.
1. Зельнер А. Байесовские методы в эконометрии. — М.: Статистика, 1980. — 434 c.
2. Савчук В.П. Байесовские методы статистического оценивания: Надежность технических
объектов. — М.: Наука, 1989. — 328 с.
3. Справочник по прикладной статистике / Под ред. Э. Ллойда, У. Ледермана — М.: Фи-
нансы и статистика, 1989. — 525 с.
4. Bergman N. Recursive Bayesian estimation: navigation and tracking applications / Linkoping
University (Sweden). — 1999. — N 579. — 219 p.
5. Besag J. Markov chain Monte Carlo for statistical inference // Working Paper. — 2001. —
N 9. — 25 p.
6. Carlin B.P., Louis T.A. Bayes and empirical Bayesian methods for data analysis. — London:
Chapman and Hall, 1996. — 418 p.
7. Chib S., Nardari F., Shepard N. MCMC methods for generalized SVM / TR OX1 1NF. — Ox-
ford, UK, 1998. — 24 p.
8. Dueker M. Kalman filtering with truncated normal state variables for Bayesian estimation of
macroeconomic models // Working Paper. — 2005. — N 057B. — 55 p.
9. Geweke J., Tanizaki H. Bayesian estimation of state-space models using M-H algorithm and
Gibbs sampling // Comput. Statistics and Data Analysis. — 2001. — 37, N 2. — Р. 151–170.
10. Бард Й. Нелинейное оценивание параметров. — М.: Статистика, 1979. — 349 с.
11. Kim S., Shephard N., Chib S. Stochastic volatility: Likelihood inference and comparison with
ARCH models // Review of Econom. Stud. — 1998. — 65. — P. 361–393.
12. MacKay D.J.C. Information theory, inference, and learning algorithms. — Cambridge: Cam-
bridge University Press, 2003. — 640 p.
13. Nigel Da Costa Lewis Market risk modeling. Applied statistical methods for practitioners. —
London: Risk Waters Group Ltd., 2003. — 238 p.
14. Tsay R.S. Analysis of financial time series. — New York: Wiley & Sons, Inc, 2002. — 448 p.
Институт прикладного системного анализа Национального
технического университета Украины «КПИ», Киев,
Международный научно-учебный центр
информационных технологий и систем
НАН Украины и Министерства образования
и науки Украины, Киев Получено 25.12.2007
|