Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей

Проанализированы основные тенденции исследований в области байесовского оценивания математических и статистических моделей процессов произвольной природы с использованием численных методов Монте-Карло. Описывается преимущество байесовского подхода по сравнению с известными, заключающееся в использов...

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2009
Автори: Бидюк, П.И., Павлов, В.В., Борисевич, А.С., Гасанова, Л.Т.
Формат: Стаття
Мова:Російська
Опубліковано: Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України 2009
Теми:
Онлайн доступ:https://nasplib.isofts.kiev.ua/handle/123456789/7631
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей / П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова // Кибернетика и вычисл. техника. — 2009. — Вип. 156. — С. 40-57. — Бібліогр.: 14 назв. — рос.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1859707493138038784
author Бидюк, П.И.
Павлов, В.В.
Борисевич, А.С.
Гасанова, Л.Т.
author_facet Бидюк, П.И.
Павлов, В.В.
Борисевич, А.С.
Гасанова, Л.Т.
citation_txt Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей / П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова // Кибернетика и вычисл. техника. — 2009. — Вип. 156. — С. 40-57. — Бібліогр.: 14 назв. — рос.
collection DSpace DC
description Проанализированы основные тенденции исследований в области байесовского оценивания математических и статистических моделей процессов произвольной природы с использованием численных методов Монте-Карло. Описывается преимущество байесовского подхода по сравнению с известными, заключающееся в использовании априорной информации относительно параметров модели. Предложено два правила выбора априорного распределения, которые охватывают наиболее распространенные случаи. Описанный метод дает возможность получать достаточно большие объемы исходной информации, а также точнее описывать структуру и основные характеристики исследуемой модели.
first_indexed 2025-12-01T03:57:36Z
format Article
fulltext 40 УДК 62-50 П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова ОЦЕНИВАНИЕ РЕГРЕССИОННЫХ МОДЕЛЕЙ С ПОМОЩЬЮ МЕТОДА МОНТЕ-КАРЛО ДЛЯ МАРКОВСКИХ ЦЕПЕЙ Проанализированы основные тенденции исследований в области байе- совского оценивания математических и статистических моделей процессов произволь- ной природы с использованием численных методов Монте-Карло. Описывается пре- имущество байесовского подхода по сравнению с известными, заключающееся в ис- пользовании априорной информации относительно параметров модели. Предложено два правила выбора априорного распределения, которые охватывают наиболее распростра- ненные случаи. Описанный метод дает возможность получать достаточно большие объ- емы исходной информации, а также точнее описывать структуру и основные характери- стики исследуемой модели. Введение. В настоящий момент актуальной задачей оценивания мате- матических и статистических моделей является применение байесовской методологии к процессам различной природы. Байесовский подход, как аль- тернатива классическому статистическому подходу, позволяет точнее и полнее оценивать модели, дает возможность получать хорошие результаты в тех случаях, когда использование классических статистических методов очень ограничено (например, случаи с короткой выборкой статистических данных). Байесовский подход открывает новые, довольно широкие возмож- ности применения методов математического моделирования, а разработан- ные алгоритмы оценивания на основе генерирования случайных чисел спо- собствуют решению поставленных задач с помощью современных вычисли- тельных процедур. Классический подход направлен на получение эффективных алгоритмов оценивания и изучение их асимптотических свойств, которые служат осно- вой для формирования статистического вывода на основе данных относи- тельно большого объема. В случае коротких выборок использование резуль- татов асимптотической теории представляется недостаточно обоснованным. Байесовский подход к формированию статистического вывода основывается на других теоретических предпосылках. Байесовские методы отличаются от классических иным подходом к интерпретации истинных параметров моде- ли. Классический подход исходит из того, что истинные параметры — это не случайные величины, а аппроксимирующие их оценки случайные, по- скольку являются функциями наблюдений, которые содержат случайные процессы [1]. Байесовский подход относится к числу тех подходов, которые более широко трактуют истинные параметры модели, т.е. случайность рас- сматривается как имманентное свойство реального физического мира с уче- том того, что сам физический объект непрерывно испытывает случайные изменения. Поэтому ищут неслучайные оценки, которые довольно близко аппроксимируют какую-нибудь статистику случайного параметра, например его среднее значение или моду. При практическом применении оцененной © П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова, 2009 ISSN 0452-9910. Кибернетика и вычисл. техника. 2009. Вып. 156 41 модели разница практически несущественна — исследователь работает с моделью, которая имеет детерминированные коэффициенты. Вероятностные свойства модели используются для определения погрешности прогноза и анализа чувствительности модели, вычисления функции потерь и т.д. Оче- видно, что подобные вычисления можно выполнять при использовании обо- их подходов. Байесовская методология исследовалась во многих роботах и использо- валась в разных областях науки и техники. В частности, А. Зельнер иссле- довал использование таких методов в эконометрике [1]; В.П. Савчук анали- зировал надежность технических объектов [2]; известно также много других направлений применения этих методов. Использование байесовской мето- дологии в таких случаях сводилось к большим аналитическим исследовани- ям, которые иногда требовали основательных знаний математики и стати- стики [3]. Благодаря развитию компьютерной техники появилась возмож- ность исследовать альтернативные вычислительные алгоритмы, базирую- щиеся на известных принципах генерирования случайных чисел [4–14] и их использовании для формирования оценок параметров математических и ста- тистических моделей случайных процессов. Постановка задачи. Цель статьи — проанализировать и раскрыть су- ществующие основные тенденции исследований в направлении байесовско- го оценивания математических и статистических моделей процессов произ- вольной природы с использованием численных методов Монте-Карло. Мы предполагаем, что случайные процессы содержат детерминированную со- ставляющую, которая может быть описана некоторой выбранной детерми- нированной функцией, например авторегрессией, регрессией, полиномом и т.д. Наличие случайной составляющей в исследуемом процессе требует вве- дения в модель случайных переменных с соответствующими распределе- ниями и применения методов анализа и описание случайных процессов. Суть байесовского подхода. Байесовские методы разработаны в ре- зультате систематических попыток сформулировать и решить проблемы статистического анализа поведения процессов и систем разной природы на основе теоремы Байеса. Предпосылкой к использованию этой теоремы яв- ляются некоторые соотношения между вероятностями событий разного ха- рактера и спецификации любого события на необходимом уровне [3]. Большинство статистических задач, независимо от методов их решения, имеют некоторые общие свойства. Для описания конкретной выборки дан- ных рассматривается несколько вероятностных моделей, как потенциально приемлемые для исследуемой ситуации. После получения данных возника- ют выраженные в некотором числовом виде знания относительно приемле- мости этих моделей. Отличие байесовской парадигмы от других статистических подходов состоит в том, что еще до получения данных исследователь рассматривает степень своего доверия к возможным моделям и представляет ее в виде ве- роятностей. Как только данные получены, теорема Байеса позволяет иссле- 42 дователю определить еще одно множество вероятностей, которые представ- ляют собой пересмотренные степени доверия к возможным моделям- кандидатам с учетом новой информации. Одним из ключевых преимуществ байесовского подхода является ис- пользование любой начальной (априорной) информации относительно па- раметров модели. Такая информация выражается в виде априорной вероят- ности или функции плотности вероятности. Затем начальные вероятности «пересматриваются», с помощью выборочных данных, которые находят свое отображение в виде апостериорного распределения оценок параметров или переменных модели. Рассмотрим случайную переменную ,X которая имеет распределение ве- роятностей, определенное в терминах неизвестного параметра ,θ принадлежа- щего определенному множеству возможных значений параметра .Θ Для задан- ного значения xX = функция правдоподобия каждого отдельного значения θ задается как ).|( θxP В непрерывном случае априорные вероятности для множества возможных моделей отвечают, в общем случае, распределению вероятностей на множестве Θ возможных значений параметра. Таким обра- зом, априорные характеристики (суждение) определяют в виде априорной плотности вероятности: ,),( Θ∈θθP такой, что .1)(∫ Θ =θθ dP (1) Априорное распределение пересматривается на основе выборочных данных xX = для получения апостериорной плотности вероятности ),|( xP θ .Θ∈θ Соответственно по теореме Байеса, которую называют прин- ципом обратной вероятности, устанавливается взаимосвязь между ),|( θxP )|( xP θ и :)(θP ,, )( )()|()|( Θ∈θ θθ =θ xP PxPxP (2) где .)()|()( ∫ Θ θθθ= dPxPxP (3) Учитывая, что в (2) знаменатель не зависит от ,θ довольно часто зави- симость (2) представляют в виде ),()|()|( θθ∝θ PxPxP (4) где ∝ означает пропорциональность. Выбор и анализ априорного распределения. Метод определения ап- риорного распределения зависит от конкретной поставленной задачи. Раз- личают случаи, когда распределение априорной информации известно, если даже распределение параметра «неинформативно». В первом случае, если известен вид функции априорного распределения, то, используя байе- совский подход (равенство (2) или (4)), можно найти вид апостериорного распределения. 43 Существуют случаи, когда априорное и апостериорное распределения относятся к одному и тому же классу распределений. Такие распределения называют сопряженными. Использование их для численных методов в байе- совском подходе означает, что существует замкнутая форма решения для условных апостериорных распределений [14]. Например nXX ...,,1 рассмат- риваются как случайная выборка из нормального распределения с неизвест- ным средним значением µ и известной дисперсией .2σ Также допускается, что априорное распределение µ является нормальным со средним значени- ем 0µ и дисперсией .2 0σ Тогда апостериорное распределение µ при выбо- рочных значениях nXX ...,,1 и заданном априорном распределении также будет нормальным со средним значением *µ и дисперсией ,2 ∗σ которые оп- ределяют следующим образом: 2 0 2 2 00 2 * σ+σ σ+µσ =µ n Xn и ,2 0 2 2 0 2 2 σ+σ σσ =σ∗ n (5) где ∑ = = n i i nXX 1 / — выборочное среднее. В байесовском анализе довольно часто удобно использовать параметр точности 2/1 σ=η (т.е. обратный к дисперсии ).2σ Если для априорного распределения ,/1 2 00 σ=η то для апостериорного ./1 2 * ∗σ=η Теперь равен- ство (5) можно представить в следующем виде: η+η=η n0* и . * 0 * 0 * Xn η η +µ η η =µ (6) Таким образом, для полученной нормальной случайной выборки ин- формация о µ содержится в выборочном среднем ,X которое является дос- таточной статистикой для .µ Точность описания распределения определяет- ся отношением :X ,/ 2 η=ση n т.е. суммой двух компонент: точностью представления априорного распределения и выборочных данных, а апосте- риорное среднее является взвешенным средним априорного среднего, и вы- борочного среднего с весовым коэффициентом, пропорциональным точно- сти. Приведенный результат свидетельствует о том, что вклад априорного распределения уменьшается с возрастанием размера выборки .n Подробное описание получения этого результата можно найти в [1]. Довольно часто рассматривают так называемую байесовскую асимпто- тику, т.е. если ∞→n для апостериорного распределения имеет значение только правдоподобие. Это достаточно просто можно показать с помощью равенства (4), если его представить следующим образом [2]: .)()()|()|( )|(ln θθ=θθ∝θ xPePPxPxP (7) 44 Если предположить, что априорное распределение )(θP и функция правдоподобия )|( θxP невырожденные и имеют непрерывную производ- ную, и )|( θxP имеет единственный максимум ,ˆ maxθ являющийся оценкой максимального правдоподобия, то )]|(ln[ θxP имеет порядок n, а )(θP не зависит от объема выборки. Таким образом, интуитивно понятно, что мно- житель правдоподобия при больших значениях объема выборки будет до- минировать в априорном распределении. Во многих случаях начальная информация о значениях оцениваемых параметров совсем неизвестна, т.е. неизвестный вид априорного распреде- ления ).(θP Другими словами, параметр θ «неинформативный». Для такого случая предложено два правила выбора априорного распределения, которые охватывают наиболее распространенные случаи [12]. Если существует па- раметр на конечном интервале или на интервале от ∞− к ,∞+ то его апри- орная вероятность считается равномерно распределенной. Если же можно обосновать, что параметр принимает значение на интервале от 0 до ,∞ то вероятность его логарифма следует считать равномерно распределенной. Первое правило Джеффриса для представления неопределенности зна- чения формулируется следующим образом: ,,)( +∞<θ<∞−θ∼θθ ddP (8) т.е. .const)( ∼θP Это прямоугольное распределение (или же функция плот- ности вероятности) является несобственным, поскольку .)( ∞=θθ∫ ∞ ∞− dP Из- вестно, что если ∞+<θ<∞− — достоверное событие, то вместо 1 для запи- си вероятности такого события используется .∞ Второе правило Джеффриса применимо к параметрам, природа которых позволяет предположить, что они принимают значение от 0 до .∞ По анало- гии распределение логарифма параметра будет равномерным, т.е. если ,logσ=θ то априорная функция плотности вероятности для θ будет иметь вид (8). Поскольку ,/ σσ=θ dd то (8) предполагает использование равенства +∞<σ< σ σ ∼σσ 0,)( ddP (9) в качестве несобственной функции плотности вероятности, которая будет представлять неопределенность значения параметра .σ Таким образом, для неинформативного параметра, например для дисперсии, априорное распре- деление задают в виде ./1)( σ∝σP Отметим такое важное свойство, как чувствительность априорного рас- пределения. При выборе разных априорных распределений получают раз- ные апостериорные распределения. В таком случае полезно оценить степень влияния отличий. На практике апостериорное распределение используют как априорное, при этом возведя его в некоторую степень ,α где .10 <α< 45 Вычислительные методы байесовского анализа. Байесовский подход довольно широко использует информацию о вероятностном распределении параметров. До конца 80-х годов прошлого века в качестве вычислительных методов для вывода байесовских оценок параметров и их апостериорных распределений использовали аналитические методы: сопряженные априорные распределения и аппроксимацию [14]. С начала 90-х годов бла- годаря бурному развитию компьютерных технологий начали распростра- няться новые методы вычислений, которые базируются на непосредствен- ном генерировании (моделировании выборки) необходимых измерений по апостериорным распределениям. Генерирование случайных величин с заданным распределением — со- временный подход, который дает возможность работать в условиях, когда существуют асимптотические аналитические результаты для свойств оценок и их статистических распределений, но неизвестно, какие свойства будут иметь оценки при малых выборках данных. Выделяют два общих подхода к моделированию: историческое моделирование и моделирование по принци- пу Монте-Карло [14]. Метод Монте-Карло, предложенный Дж. фон Нейма- ном и С. Уламом в 1940-х гг., относится к моделированию процессов с ис- пользованием генератора случайных чисел. Методы моделирования Монте-Карло делятся на итеративные и неите- ративные. К неитеративному относят метод генерирования выборки по важ- ности (importance sampling) и метод отбраковки или принятие выборки (rejection or acceptance sampling) [5]. Неитеративные методы Монте-Карло. Рассмотрим некоторое вероят- ностное распределение или вероятностную плотность распределения )(xp для дискретного или непрерывного процесса. Распределение )(xp называют еще целевым распределением, или целевой плотностью распределения. Не- обходимо сгенерировать выборочные значения N iiX 1}{ = по распределению )(xp и найти их статистическую оценку, т.е. оценить математическое ожи- дание функции )(xφ по распределению: .)()(][ ∫ φ=φ dxxpxE p (10) Допустим, что x — вектор из nR с компонентами ,iX а )(xφ — неко- торая функция. Для выборочных значений N iiX 1}{ = можно записать .)(1ˆ ∑φ=Φ i iX N (11) Поскольку вектор N iiX 1}{ = сгенерирован по ),(xp то математическое ожидание Φ̂ равняется ];[φpE при увеличении количества выборочных значений N дисперсия Φ̂ пропорционально уменьшается. Моделирование выборки по важности — это не метод генерирования выборочных значений N iiX 1}{ = по распределению ),(xp а только метод оце- 46 нивания ожидания ),(xφ представленного выражением (10). Основная идея метода состоит в моделировании по другим, более простым аппроксими- рующим распределениям, например ),(xq которое довольно близко к целе- вому распределению ).(xp Алгоритм моделирования состоит из следующих основных шагов: 1) выбираем значения ,iX сгенерированные по );(xq 2) поскольку моделирование происходило по «ошибочному» распреде- лению, формируем весовой коэффициент ; )( )( i i i Xq Xp =ω (12) 3) находим оценку искомой величины ][φpE из выражения ∑ φω=Φ i ii X N )(1ˆ или . )( ˆ ∑ ∑ ω φω =Φ i i i ii X (13) Основной недостаток такого метода заключается в том, что относитель- ное возрастание дисперсии, обусловленное непостоянными весовыми коэф- фициентами, имеет большую зависимость от выбора аппроксимирующего распределения ),(xq а также то, что все выборочные значения нивелируют- ся небольшим количеством значений с большими весовыми коэффициента- ми. Метод отбраковки, или принятия выборки состоит в моделировании по другим аппроксимирующим распределениям, но перерасчет весового коэф- фициента выполняется в процессе генерирования, при этом сохраняется только часть смоделированных точек измерений. Основной алгоритм гене- рирования выборки состоит из следующих шагов: 1) отыскиваем масштабирующую константу ,M такую что );()( xqMxpx ≤∀ (14) 2) независимо выбираем значения ,iX сгенерированные по )(xq и ,iU равномерно распределенные на интервале ];1,0[ 3) если ),()( iii XpXqUM < то принимаем сгенерированные значе- ния iX , в противном случае — отбрасываем (отбраковываем, отсюда и на- звание метода) и возвращаемся к шагу 2; 4) шаги 2), 3) повторяем до тех пор, пока не найдем N значений .iX Недостатком этого алгоритма, как и в предшествующем случае, являют- ся проблемы при больших размерах выборки; алгоритм вырабатывает «при- емлемые» случайные числа только за M/1 времени, если распределения совпадают. Если M слишком большое, то смоделированные значения от- брасываются. Таким образом, описанные выше методы работают удовлетворительно только в тех случаях, когда избранное для генерирования распределение 47 )(xq подобно целевому распределению ).(xp Однако в большинстве слож- ных задач очень тяжело создать отдельное распределение, которое удовле- творяло бы всем свойствам. Итерационные методы Монте-Карло для марковских цепей. Итера- ционные методы моделирования Монте-Карло базируются на идее построе- ния марковской цепи и, в отличие от предшествующих методов, используют варианты (кандидаты) распределения )(xq (плотностей распределения), ко- торые зависят только от текущего состояния iX [5, 13]. К этим методам можно отнести генерирование выборки по Гиббсу, алгоритм Метрополиса, Метрополиса–Хастингса и др. Рассмотрим стохастический процесс },{ tX где .Θ∈tX Если при задан- ном значении tX значение hX (при )th > не зависят от значений sX при ,ts < то он марковский. Иначе говоря, }{ tX — марковский процесс, если его условная функция распределения удовлетворяет равенству .),/(),/( thXXPtsXXP thsh >=≤ (15) Если }{ tX — дискретный стохастический процесс, то его основная ха- рактеристика имеет вид .),/(,...),/( 1 thXXPXXXP thtth >=− (16) Если A — подмножество ,Θ то функция ,),/(),,( thXAXPAhP tht >θ=∈=θ (17) выступает как функция переходной вероятности марковского процесса. Ес- ли переходная вероятность зависит от ,th − а не от ,t то процесс имеет ста- ционарную переходную вероятность. Основой моделирования с помощью марковской цепи служит построе- ние марковского процесса, для которого стационарное распределение пере- ходов определяется функцией )./( XP θ Процесс моделирования довольно длительный; он продолжается до тех пор, пока распределение текущих зна- чений процесса не приблизится к стационарному распределению переходов. Таким образом, для заданного распределения )/( XP θ может быть сконст- руировано большое количество марковских цепей с заданными параметра- ми. Методы, которые используют моделирование случайных величин мар- ковской цепью для получения распределения )/( XP θ , относят к методам Монте-Карло для марковских цепей (МКМЦ). Метод генерирования выборки Гиббса представляет собою утонченный способ формирования выборки из общих распределений многомерных пе- ременных путем применения многоразовых выборок из определенных од- номерных условий. Например, для двумерной общей плотности распределе- ния ),( yxf при расчете используют условные плотности распределений )/( yxf и )./( xyf Основной алгоритм генерирования можно описать сле- дующим образом: 48 1) выбор начальных значений 0X и 0Y в соответствии с принятым рас- пределением; 2) генерирование 1+tY по условному распределению );/( tXyf 3) генерирование 1+tX по условному распределению );/( 1+tYxf 4) многократное повторение шагов 2, 3 для того, чтобы цепь достигла сходимости к своему стационарному распределению. В результате получаем набор значений ),,( tt YX которые при ,...,,1 Nt = ,∞→N будут совпадать с общим распределением .),( yxf На практике ис- пользуют достаточно большое количество измерений ,N при котором отвер- гают первые M )( NM < случайных значений итераций Гиббса, которые считают образцами для испытаний на отказ (обычно значение M выбирают равным 10–20 % от ).N Испытание на отказ используется для обеспечения близости выборочных значений к общему распределению ).,( yxf В общем случае сходимость метода Гиббса можно записать так: .,),(),(),(1 1 ∞→→ − ∫∑ += NdxdyyxfyxgYXg MN tt N Mt (18) Заметим также, что рассмотренный метод представляет собой прохож- дение по длинной цепи с сохранением всех случайных измерений после ис- пытаний на отказ для получения выборочных значений Гиббса. Кроме того, можно запускать несколько относительно коротких цепей, используя раз- личные начальные значения при относительно маленьких .N Случайное значение последней итерации Гиббса в каждой цепи используется для фор- мирования текущего значения выборки Гиббса. Итак, выборка Гиббса имеет преимущество при декомпозиции много- мерной задачи оценивания задачами меньшей размерности путем примене- ния полных условных распределений параметров. Эта особенность делает выборку Гиббса простой и широко применимой. Однако довольно часто не- достаточно сводить все значения выборки Гиббса к одномерной задаче. Ес- ли параметры сильно коррелированны, приходится измерять их совместно. Для того чтобы убедиться в сходимости метода Гиббса, часто процедуру повторяют несколько раз с разными начальными значениями. Другой метод — алгоритм Метрополиса — применяется, например, в тех случаях, когда вероятностное распределение известно, за исключением нормирующей константы. Допустим, что необходимо получить случайную выборку из распределения с целевой плотностью ),(xf которая содержит сложную нормирующую константу; при этом прямое получение выборки или трудоемкое или невыполнимое. В соответствии с процедурой выбирают аппроксимирующее распределение, для которого легко генерировать слу- чайные значения, т.е. определяют кандидата на функцию плотности, ).,( xvq Алгоритм Метрополиса генерирует последовательность случайных измере- ний из аппроксимирующего распределения ),,( xvq сходящегося к ).(xf Алгоритм можно представить следующими шагами: 1) выбрать плотность аппроксимирующего распределения );,( xvq 49 2) задать текущее состояние цепи: выбирая значение ,tX сгенерировать значения V по распределению ),( tXvq (которое называют еще «скачкооб- разным»), такое распределение должно быть симметричным, т.е. =),( xvq ),( vxq= для всех v и .x 3) вычислить показатель пропускной способности (или значение скачка): ; )( )( tXf Vfr = (19) 4) если ,1≥r то ;1 VXt =+ если же ,1<r то ⎩ ⎨ ⎧ − =+ .1ьювероятностс ,ьювероятностс 1 rX rV X t t (20) Повторение алгоритма несколько раз при некоторых регулярных неже- стких условиях обеспечивает сходимость последовательности }{ tX к рас- пределению ).(xf Правило принятия и отклонения сгенерированного значения для этого алгоритма может базироваться на таких условиях: (i) если скачок от tX к V увеличивает плотность распределения, то ;1+= tXV (ii) если скачок уменьшает плотность распределения, то VXt =+1 с ве- роятностью, равной показателю ,r и устанавливают tt XX =+1 в противном случае с вероятностью ).1( r− Примерами симметричной плотности ),( xvq могут служить нормальное распределение и распределение t-Стьюдента для средних значений парамет- ров модели. В 1970 г. Хастингс обобщил алгоритм Метрополиса: во-первых, скачко- образное распределение, т.е. аппроксимирующую плотность распределения, не обязательно выбирать симметричной; во-вторых, правило прыжка изменя- ется таким образом: . ),()( ),()( ),(/)( ),(/)( tt t tt t XVqXf VXqVf VXqXf XVqVfr == (21) Такую модификацию называют алгоритмом Метрополиса–Хастингса. Аналогично с помощью настоящего алгоритма можно генерировать случай- ные измерения с любой функцией плотности, при этом симметричность распределения не требуется. Как и в случае выборки Гиббса, необходимо использовать достаточное количество значений N и исключать из рассмотрения первые M значений. Алгоритм Метрополиса–Хастингса можно представить так: .,)()()(1 1 ∞→→ − ∫∑ += NdxxfxgXg MN t N Mt (22) 50 Для алгоритма Метрополиса–Хастингса выбор аппроксимирующей плотности распределения очень важен. Плотность не должна иметь слиш- ком большую или маленькую дисперсию, должна быть достаточно близкой к целевому распределению. Если показатель пропускной способности слиш- ком большой, то цепь будет вырабатывать много маленьких шагов в окрест- ности локальных выбросов, увеличивая корреляцию и время сходимости. Таким образом, независимые выборочные значения получают лишь с боль- шими интервалами. Если же этот показатель слишком низкий, то цепь будет «застревать» в отдельных местах. Оптимальной пропускной способностью считается 20–50 %. Заметим, что индексы Ni ...1= обозначают независимые выборочные значения, которые генерируются по соответствующему распределению. Обозначения Ni ...1= отвечают последовательностям состояний марков- ской цепи. Алгоритм Метрополиса–Хастингса, как обобщенный вариант ал- горитма Метрополиса и выборки Гиббса, в отличие от метода отбраковки выборки, при моделировании N итераций не вырабатывает N независи- мых выборочных значений по целевым распределениям, а сами выборочные значения коррелируют. Это объясняется тем, что методы МКМЦ включают в себя марковский процесс, в котором сгенерирована последовательность состояний },{ tX каждый элемент tX которой имеет распределение вероят- ности, зависящее от предшествующего значения .1−tX В течение значи- тельного промежутка времени марковская цепь должна существенно пере- меститься, чтобы эффективно сгенерировать независимые выборочные зна- чения целевого распределения. Выбор начальной функции плотности позволяет избежать корреляцион- ной зависимости между выборочными. В частности, если в качестве пред- ложения выбрать плотности ),(),( vqxvq = то получим независимую выбор- ку. Если положить ),(),( vxfxvq −= то получим алгоритм Метрополиса– Хатингса со случайным блужданием. Довольно полезным бывает примене- ние композиций и комбинаций, т.е. использование нескольких видов пред- ложений распределения, которые выбирают случайным образом. Например, формируют независимую выборку по априорным распределениям для даль- нейшего анализа апостериорного распределения на больших шагах. Для определения нижней границы количества итераций, необходимых для того, чтобы выборочные значения были независимыми, для метода Мо- трополиса–Хастингса довольно часто применяют эмпирическое правило. Если наибольшая длина в пространстве вероятных состояний равняется ,L то для получения независимых выборочных значений по алгоритму Метро- полиса–Хастингса, где аппроксимирующее распределение моделируется случайным блужданием с размером шага ,ε он должен выполняться за наи- меньшее 2)/( ε≅ LT количество итераций. 51 Назовем преимущества описанных выше методов МКМЦ: — чтобы решить поставленную задачу, необходимо «прогнать» этот метод несколько раз; — используя алгоритм Метрополиса–Хастингса, можно избежать рас- чета предельных распределений и нормирующих констант в плотностях распределений; — можно получить функции параметров ),(θφ исходя из имитирован- ных (смоделированных) распределений );( tθφ — воспроизведение многих естественных форм и других нестандарт- ных особенностей процессов и явлений, которые моделируются. К недостаткам методов МКМЦ относят: — нередуцированность, апериодичность и апостериорность распреде- лений; — диагностика сходимости методов все еще остается эвристической; — выборочные значения, полученные методами МКМЦ, могут быть сильно автокоррелированными, поэтому необходимо иметь большой размер выборки, порядка (103–106) сгенерированных значений. Преодоление описанных недостатков считается творческим процессом. Диагностика сходимости может включать в себя исследование графиков и тестирование равенства распределений между разными частями цепи. Авто- корреляции могут быть частично откорректированы новой параметризацией и группированием выборочных значений. Цепь можно «перезапустить», т.е. повторить выполнение алгоритма, используя разные начальные значения и/или разные генераторы случайных чисел. Для проверки сходимости также можно воспользоваться показателем уменьшения масштаба, который вы- числяется по следующему выражению: . цепивнутридисперсия дисперсияобщаяˆ =R (23) Если значение R̂ приближается к 1, то это обеспечивает сходимость. Однако вопрос сходимости методов МКМЦ все еще остается открытым. Проверка гипотез и выбор модели. Во многих случаях возникает за- дача сравнения альтернативных гипотез и моделей. При наличии точно сформулированных гипотез или моделей, которые сравниваются, практиче- ский способ их сравнения зависит от цели анализа, состояния априорной информации и от наличия функции потерь. Рассмотрим критерии выбора альтернативных моделей в общем случае, например множество параметри- ческих моделей ,,...,, 21 mMMM которые описывают nXX ...,,1 условными распределениями .,,1),,|( miMxf i K=θ Предельное распределение данных предполагает, что .)|(),|()|( ∫ Θ θθθ= dMPMxfMxp iii (24) 52 Главным механизмом формирования статистического вывода является байесовский фактор (коэффициент), который представляет собой отношение апостериорных вероятностей к априорным: , )|( )|( )|(/)( )|(/)|( ),( j i ji ji MxP MxP MPMP xMPxMP jiBF = θ = .,,1, mji K= (25) Преимущество одной модели над другой определяется в соответствия со значением байесовского фактора. Если он существенно превышает 1, то принимается соответствующее решение. Для выбора модели используют критерий наибольшей предельной плотности распределения ,)|( iMxp ко- торый отвечает условию .1),( >jiBF Часто в расчетах используют аппроксимацию (приближение) байесов- ского фактора, а именно информационный критерий Байєса–Шварца (Schwarz Bayesian information criterion), который определяется так: ,ln)( ),|(sup ),|(sup ln2ln2 npp Mxf Mxf BICBF ij jM iM j i −− θ θ −=∆≈− (26) где n — объем выборки; ,dim ji pM = ,,,1, mji K= — размерность модели. Байесовские методы сравнения и выбора альтернативных моделей и ги- потез составляют унифицированное множество принципов, которые счита- ют функциональными и применимыми к широкому классу задач. Такие ме- тоды позволяют учитывать при сравнении и проверке гипотез и моделей ап- риорную информацию. Как показано в [1], байесовский подход к проверке гипотез и моделей — единственный подход, который предусматривает вы- бор действия на основе максимизации ожидаемой полезности. Прогнозное распределение. Важнейшим аспектом байесовского под- хода, как полноценного подхода к формированию статистического вывода, является прогнозирование. Байесовская парадигма дает достаточный объем информации для прогнозирования. В частности, главным инструментом вы- ступает вероятностное распределение, которое используется в качестве про- гнозного. Если *x — новое измерение, то можно записать совместное распределе- ние *x и параметров θ при условии заданной выборки данных :}{ tX .)|(),|()|,( ** xPxxPxxP θθ=θ (27) Прогнозное распределение )|( * xxP получаем, проинтегровав равенст- во (27) по .θ Используя (2) и (3), запишем .)|()|()|,()|( *** ∫∫ ΘΘ θθθ=θθ= dxPxPdxxPxxP (28) 53 Прогнозное распределение )|( * xxP не зависит от .θ Равенство (28) указывает на то, что прогнозное распределение (или прогнозирующая функ- ция распределения вероятности) рассматривается как среднее условных прогнозных распределений ),|( * θxP причем весовой функцией служит апо- стериорное распределение для ,θ т.е. ).|( xP θ Примеры применения МСМС методов к моделям стохастической волатильности. Модель стохастической волатильности Тейлора относится к классу моделей, в которых учитываются изменения дисперсии и ковариа- ций. Для дискретного времени модель волантильности в достаточно про- стом варианте имеет такой вид: , 2 exp t t t hy ε⎟ ⎠ ⎞ ⎜ ⎝ ⎛= ),1,0(Norm~tε ,)(1 ttt hh η+µ−ϕ+µ=+ (29) ,),0(Norm~ 2 ησηt где ty — средняя откорректированная доходность актива на момент време- ни ;t th — логарифм волатильности на момент времени ;t ),(Norm ⋅⋅ — нор- мальное распределение. Параметр ,µ как среднее значение ,th представляет собой масштабирующий коэффициент; ϕ отображает устойчивость вола- тильности; ησ — волатильность логарифмированной переменной. Предпола- гается, что tε и tη не коррелируют между собой, а процесс th стационарный )1( <ϕ и имеет начальное условие )]1/(,[Norm 22 0 ϕ−σµ ηh [12]. Первое уравнение модели (29) в пространстве состояний определяет ус- ловные распределения наблюдений с заданными неизвестными состояниями ,th т.е. это уравнения измерений: , 2 exp| t t tt hhy ε⎟ ⎠ ⎞ ⎜ ⎝ ⎛= .)1,0(Norm~tε (30) Неизвестные состояния определяются марковскими переходами во вре- мени и задаются соответствующим уравнением состояния: ,)(,,,| 1 2 1 tttt hhh η+µ−ϕ+µ=σϕµ −η− ),0(Norm~ 2 ησηt (31) с начальным условием .0h Байесовская модель состоит из общего априорного распределения из всех ненаблюдаемых переменных, трех параметров ,,, 2 ησϕµ неизвестных состояний nhhh ...,,, 10 и общего распределения наблюдений относительно средней доходности ....,,1 nyy Байесовский вывод основывается на апосте- 54 риорном распределении ненаблюдаемых параметров при заданных данных, т.е. на определении общей вероятности распределения ,),,,|(),,|(),,()...,,,,,,( 1 2 1 2 0 2 10 2 ∏ = η−ηηη σφµσφµσϕµ=σϕµ n t ttn hhphpphhhp (32) при этом допускает независимость априорных распределений параметров ϕµ, и .2 ησ В качестве априорного распределения выбираем неинформативное рас- пределение для ;)10,0(Norm~:µµ для ϕ положим ,12 * −φ=ϕ где ~*ϕ ),,(Beta~ βα т.е. это бета-распределение с параметрами 20=α и ,5,1=β которые дают возможность получать значение ϕ в границах .1<ϕ Для 2 ησ выбираем сопряженное обратное гамма-распределение с такими параметра- ми: ).01,0;5(GammaInv~2 ησ Для общего распределения (32) величину ),,,|( 2 1 η− σφµtt hhp можно оп- ределить по уравнениям состояния (31). Правдоподобие ,,|...,,( 1 ϕµnyyp ),...,,, 10 2 nhhhησ определяется уравнением измерений (30) и предположения- ми условий независимости ∏ = η =σϕµ n t ttnn hyphhhyyp 1 10 2 1 ).|()...,,,,,,|...,,( (33) Далее по теореме Байеса совместное апостериорное распределение не- наблюдаемых параметров при заданных данных пропорционально априор- ному распределению и правдоподобию, т.е. ∝σϕµ η |)...,,|...,,,,,( 10 2 nn yyhhp ∏∏ == η−ηη σϕµσϕµσϕµ∝ n t tt n t tt hyphhphpppp 11 2 1 2 0 2 ).|(),,,|(),,|()()()( (34) Распределение для ty можно рассматривать как распределение t-Стью- дента с нулевым средним, переменной дисперсией 2 tσ и неопределенными степенями свободы ϑ для погрешностей наблюдений: ~ty t-Student ),,0( 2 ϑσt . Априорное распределение для ϑ можно избрать из распределения Хи-квадрат с помощью преобразования ,2* +ϑ=ϑ где 2* ~ χϑ (8). Распределение для ty часто рассматривают как нормальное с нулевым средним и переменной дисперсией ,2 tσ т.е. ).,0(Norm~ 2 tty σ С помощью данной модели исследуем устойчивость ресурсной базы банка на примере анализа текущих счетов клиентов. Необходимо проанали- зировать волатильность клиентских счетов на возможность оттока денеж- ных средств и дальнейшего определения их устойчивости. Начальные дан- ные, представляющие собой ежедневные остатки денежных средств клиен- тов }{ tx за полтора года (приблизительно 370 значений), необходимо пре- 55 вратить во временнóй ряд, который будет указывать на среднюю откоррек- тированную доходность удерживаемого актива, т.е. на среднюю волатиль- ность остатков, с помощью преобразования ....,,1,)log(log1loglog 1 11 ntxx n xxy n i iittt =−−−= ∑ = −− (35) На рис. 1 изображена динамика временнóго ряда .ty -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 04.05.06 04.07.06 04.09.06 04.11.06 04.01.07 04.03.07 04.05.07 04.07.07 04.09.07 04.11.07 04 .0 5. 20 06 04 .0 7. 20 06 04 .0 9. 20 06 04 .1 1. 20 06 04 .0 1. 20 07 04 .0 3. 20 07 04 .0 5. 20 07 04 .0 7. 20 07 04 .0 9. 20 07 04 .1 1. 20 07 −1 −0,8 −0,6 −0,4 −0,2 1 0,2 0,4 0,6 0,8 Рис. 1 Для реализации модели использована программная реализация алго- ритма Гиббса в системе WinBUGS (версия 1.4.3), которая является свободно доступным программным продуктом. Результаты работы программы и алго- ритма генерирования выборки Гиббса представлены в таблице. Значения, которые отвечают 2,5 % и 97,5 %, образуют доверительный интервал для оценок, а начало уточнения оценок означает, что первые 10 тыс. случайных значений отбрасываются, т.е. фактические оценки формируются, начиная с 10001-го сгенерированного значения. На рис. 2. представлены выборки значений параметров модели и их апостериорные распределения (вид функции плотности распределения), по- лученные в результате применения метода МКМЦ. Таблица. Байесовское оценивание параметров модели, вычисленных с помощью WinBUGS П ар ам ет р С ре дн ее зн ач ен ие С та нд ар тн ое от кл он ен ие П ог ре ш но ст ь 2, 5 % М ед иа на 97 ,5 % Н ач ал о ут оч не не ни я О бъ ем да нн ы х 2/1 ησ 622,1 230,2 21,24 232,6 595,6 1144,0 10001 10000 µ −4,486 0,1896 0,00804 −4,739 −4,511 −4,116 10001 10000 *ϑ 4,252 1,472 0,08974 2,146 3,97 7,966 10001 10000 *ϕ 0,9881 0,006572 3,377E−4 0,973 0,989 0,9981 10001 10000 56 2/1 ησ 10001 12500 15000 17500 20000 Итерации 0 1000 2000 isigma2eta sample: 10000 0 500 1000 0 0,001 1500 0,002 2/1 ησ 10001 12500 15000 17500 20000 Итерации −8,0 µ −4,0 0,0 mu sample: 10000 -8.0 -6.0 -4.0 -2.0 0 2,0 −8,0 −6,0 −4,0 −2,0 4,0 µ 10001 12500 15000 17500 20000 Итерации 0,0 ∗ϑ 10,0 nustar sample: 10000 0.0 5.0 10.0 0 2,0 0,0 5,0 10,0 4,0 ∗ϑ 10001 12500 15000 17500 20000 Итерации 0,94 ∗ϕ 0,98 phistar sample: 10000 0.94 0.96 0.98 1.0 0 40,0 0,94 0,96 1,0 80,0 0,98 ∗ϕ Рис. 2 Выводы. Применение байесовского подхода к формированию стати- стического вывода дает возможность совсем по иному воспринимать и ис- следовать оцениваемые модели. Он позволяет оперировать не только полу- ченными оценками, а также соответствующими вероятностными распреде- лениями, применять имеющиеся в разных формах априорные знания иссле- дователя относительно оценок параметров модели. Это дает возможность получать большие объемы исходной информации и точнее описывать струк- туру и другие характеристики исследуемой модели. Методика применения вычислительных алгоритмов Монте-Карло, кото- рые базируются на генерировании случайных измерений, тесно связана с байесовской методологией. Этим решается задача генерирования измерений по необходимым вероятностным распределениям. Описанные методы зна- чительно расширяют и улучшают возможности байесовского анализа и сфе- ру его применения в эргатических системах. Одним из преимуществ такого подхода является создание и анализ моделей по данным разной, в частности маленькой, размерности. Рассмотренный пример показывает, что для оценивания таких сложных нелинейных моделей, как модель стохастической волатильности (подобные модели иногда довольно сложно оценивать с помощью известных классиче- ских методов), позволяет получить приемлемые оценки, оперируя априор- ными и апостериорными распределениями параметров и используя алго- ритмы МКМЦ. 57 В целом методы Монте-Карло для марковских цепей трансформируются в относительно несложные для программирования алгоритмы, направлен- ные на реализацию методов байесовского анализа. При этом следует ука- зать, что методы данного класса требуют углубленного анализа и осмысле- ния. В частности, необходимо исследовать точность оценивания сложных нелинейных моделей, сходимость оценок и их прогнозные характеристики, провести сравнение с другими, более известными методами. 1. Зельнер А. Байесовские методы в эконометрии. — М.: Статистика, 1980. — 434 c. 2. Савчук В.П. Байесовские методы статистического оценивания: Надежность технических объектов. — М.: Наука, 1989. — 328 с. 3. Справочник по прикладной статистике / Под ред. Э. Ллойда, У. Ледермана — М.: Фи- нансы и статистика, 1989. — 525 с. 4. Bergman N. Recursive Bayesian estimation: navigation and tracking applications / Linkoping University (Sweden). — 1999. — N 579. — 219 p. 5. Besag J. Markov chain Monte Carlo for statistical inference // Working Paper. — 2001. — N 9. — 25 p. 6. Carlin B.P., Louis T.A. Bayes and empirical Bayesian methods for data analysis. — London: Chapman and Hall, 1996. — 418 p. 7. Chib S., Nardari F., Shepard N. MCMC methods for generalized SVM / TR OX1 1NF. — Ox- ford, UK, 1998. — 24 p. 8. Dueker M. Kalman filtering with truncated normal state variables for Bayesian estimation of macroeconomic models // Working Paper. — 2005. — N 057B. — 55 p. 9. Geweke J., Tanizaki H. Bayesian estimation of state-space models using M-H algorithm and Gibbs sampling // Comput. Statistics and Data Analysis. — 2001. — 37, N 2. — Р. 151–170. 10. Бард Й. Нелинейное оценивание параметров. — М.: Статистика, 1979. — 349 с. 11. Kim S., Shephard N., Chib S. Stochastic volatility: Likelihood inference and comparison with ARCH models // Review of Econom. Stud. — 1998. — 65. — P. 361–393. 12. MacKay D.J.C. Information theory, inference, and learning algorithms. — Cambridge: Cam- bridge University Press, 2003. — 640 p. 13. Nigel Da Costa Lewis Market risk modeling. Applied statistical methods for practitioners. — London: Risk Waters Group Ltd., 2003. — 238 p. 14. Tsay R.S. Analysis of financial time series. — New York: Wiley & Sons, Inc, 2002. — 448 p. Институт прикладного системного анализа Национального технического университета Украины «КПИ», Киев, Международный научно-учебный центр информационных технологий и систем НАН Украины и Министерства образования и науки Украины, Киев Получено 25.12.2007
id nasplib_isofts_kiev_ua-123456789-7631
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 0452-9910
language Russian
last_indexed 2025-12-01T03:57:36Z
publishDate 2009
publisher Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України
record_format dspace
spelling Бидюк, П.И.
Павлов, В.В.
Борисевич, А.С.
Гасанова, Л.Т.
2010-04-06T10:53:59Z
2010-04-06T10:53:59Z
2009
Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей / П.И. Бидюк, В.В. Павлов, А.С. Борисевич, Л.Т. Гасанова // Кибернетика и вычисл. техника. — 2009. — Вип. 156. — С. 40-57. — Бібліогр.: 14 назв. — рос.
0452-9910
https://nasplib.isofts.kiev.ua/handle/123456789/7631
62-50
Проанализированы основные тенденции исследований в области байесовского оценивания математических и статистических моделей процессов произвольной природы с использованием численных методов Монте-Карло. Описывается преимущество байесовского подхода по сравнению с известными, заключающееся в использовании априорной информации относительно параметров модели. Предложено два правила выбора априорного распределения, которые охватывают наиболее распространенные случаи. Описанный метод дает возможность получать достаточно большие объемы исходной информации, а также точнее описывать структуру и основные характеристики исследуемой модели.
ru
Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України
Эргатические системы управления
Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
Article
published earlier
spellingShingle Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
Бидюк, П.И.
Павлов, В.В.
Борисевич, А.С.
Гасанова, Л.Т.
Эргатические системы управления
title Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
title_full Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
title_fullStr Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
title_full_unstemmed Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
title_short Применение метода Монте-Карло для марковских цепей к оцениванию регрессионных моделей
title_sort применение метода монте-карло для марковских цепей к оцениванию регрессионных моделей
topic Эргатические системы управления
topic_facet Эргатические системы управления
url https://nasplib.isofts.kiev.ua/handle/123456789/7631
work_keys_str_mv AT bidûkpi primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei
AT pavlovvv primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei
AT borisevičas primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei
AT gasanovalt primeneniemetodamontekarlodlâmarkovskihcepeikocenivaniûregressionnyhmodelei