Метод решения задачи прогнозирования на основе комплексирования оценок

В статье рассматриваются основные методы прогнозирования. Также предлагается новый алгоритм, основанный на комплексировании оценок моделей, полученных с помощью различных методов (таких как искусственные нейронные сети, метод группового учета аргументов и их комбинации). Алгоритм был протестирован н...

Full description

Saved in:
Bibliographic Details
Published in:Індуктивне моделювання складних систем
Date:2012
Main Authors: Синеглазов, В.М., Чумаченко, Е.И., Горбатюк, В.С.
Format: Article
Language:Russian
Published: Міжнародний науково-навчальний центр інформаційних технологій і систем НАН та МОН України 2012
Online Access:https://nasplib.isofts.kiev.ua/handle/123456789/45974
Tags: Add Tag
No Tags, Be the first to tag this record!
Journal Title:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Cite this:Метод решения задачи прогнозирования на основе комплексирования оценок / В.М. Синеглазов, Е.И. Чумаченко, В.С. Горбатюк // Індуктивне моделювання складних систем: Зб. наук. пр. — К.: МННЦ ІТС НАН та МОН України, 2012. — Вип. 4. — С. 214-223. — Бібліогр.: 8 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1859898656654622720
author Синеглазов, В.М.
Чумаченко, Е.И.
Горбатюк, В.С.
author_facet Синеглазов, В.М.
Чумаченко, Е.И.
Горбатюк, В.С.
citation_txt Метод решения задачи прогнозирования на основе комплексирования оценок / В.М. Синеглазов, Е.И. Чумаченко, В.С. Горбатюк // Індуктивне моделювання складних систем: Зб. наук. пр. — К.: МННЦ ІТС НАН та МОН України, 2012. — Вип. 4. — С. 214-223. — Бібліогр.: 8 назв. — рос.
collection DSpace DC
container_title Індуктивне моделювання складних систем
description В статье рассматриваются основные методы прогнозирования. Также предлагается новый алгоритм, основанный на комплексировании оценок моделей, полученных с помощью различных методов (таких как искусственные нейронные сети, метод группового учета аргументов и их комбинации). Алгоритм был протестирован на реальных данных и показал лучшие результаты, чем каждый метод в отдельности. У статті розглядаються основні методи прогнозування. Також пропонується новий алгоритм, заснований на комплексуванні оцінок моделей, отриманих за допомогою різних методів (таких як штучні нейронні мережі, метод групового урахування аргументів і їх комбінації). Алгоритм було протестований на реальних даних і показав кращі результати, ніж кожен метод окремо. In this article the main forecasting methods are considered. There has been offered a new algorithm based on a complexing of estimates given by models obtained with the help of different methods (artificial neural networks, group method of data handling and their combination). Algorithm was tested on the real data and showed better results, as compared to separate methods on their own.
first_indexed 2025-12-07T15:55:45Z
format Article
fulltext Метод решения задачи прогнозирования Індуктивне моделювання складних систем, випуск 4, 2012 214 УДК 004.032.26(045) МЕТОД РЕШЕНИЯ ЗАДАЧИ ПРОГНОЗИРОВАНИЯ НА ОСНОВЕ КОМПЛЕКСИРОВАНИЯ ОЦЕНОК В.М. Синеглазов, Е.И. Чумаченко, В.С. Горбатюк Национальный технический университет Украины «КПИ» lobach21@mail.ru У статті розглядаються основні методи прогнозування. Також пропонується новий алго- ритм, заснований на комплексуванні оцінок моделей, отриманих за допомогою різних ме- тодів (таких як штучні нейронні мережі, метод групового урахування аргументів і їх ком- бінації). Алгоритм було протестований на реальних даних і показав кращі результати, ніж кожен метод окремо. Ключові слова: прогнозування часових рядів, МГУА, штучні нейронні мережі, комплексу- вання результатів. In this article the main forecasting methods are considered. There has been offered a new algorithm based on a complexing of estimates given by models obtained with the help of different methods (artificial neural networks, group method of data handling and their combination). Algorithm was tested on the real data and showed better results, as compared to separate methods on their own. Key words: time series forecasting, GMDH, artificial neural networks, results complexing. В статье рассматриваются основные методы прогнозирования. Также предлагается новый алгоритм, основанный на комплексировании оценок моделей, полученных с помощью различных методов (таких как искусственные нейронные сети, метод группового учета аргументов и их комбинации). Алгоритм был протестирован на реальных данных и пока- зал лучшие результаты, чем каждый метод в отдельности. Ключевые слова: прогнозирование временных рядов, МГУА, искусственные нейронные сети, комплексирование результатов. Вступление Задача прогнозирования всегда была и будет одной из наиболее интересных и изучаемых задач, так как ее решение дает возможность судить о будущем имея лишь текущие данные. С другой стороны, окончательное ее решение вероятнее всего не будет найдено никогда - поскольку количество факторов, влияющих на поведение прогнозируемого процесса обычно стремится к бесконечности. В данной статье предлагается метод нахождения приближенного решения этой задачи, основанный на на переборе различных моделей, выборе лучших (по внешнему критерию) моделей, и, наконец, комплексировании оценок, полученных с помощью выбранных моделей. 1. Постановка задачи Пусть заданы n дискретных отсчетов { }n1 y,,y K в последовательные моменты времени { }n1 t,,t K . Тогда рассматриваемая в данной статье задача прогнозирования (рис. 1) состоит в предсказании значения kny + в некоторый Синеглазов В.М., Чумаченко Е.И., Горбатюк В.С. Індуктивне моделювання складних систем, випуск 4, 2012 215 будущий момент времени knt + , где k – длительность (упреждение) прогноза, в виде некоторой функциональной зависимости: ( )n1kn y,,yF K=+y , где F – функциональный преобразователь. Рис. 1. Графическая иллюстрация постановки задачи прогнозирования: А – из- вестные значения; В – прогнозируемый период Предполагается, что реальная математическая модель прогнозируемого процесса имеет вид: ( ) tq-t1-tp-t2-t1-tt ,,,y,,y,yh εεε += KKy где h - некая неизвестная гладкая функция, tε – случайная составляющая. Также предполагается, что математическое ожидание ( ) 0y,,y,y|E p-t2-t1-tt =Kε и tε имеет некоторую конечную дисперсию 2σ . Очень важным является знание таких характеристик tε , как закон распределения, математическое ожидание, дисперсия. 2. Анализ существующих методов Искусственные нейронные сети. Основной элемент нейронной сети – формальный (искусственный) нейрон. Он представляет собой математическую модель биологической нервной клетки. ИНС представляют собой систему соединённых и взаимодействующих между собой искусственных нейронов. ИНС не программируются в привычном смысле этого слова, они обучаются. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными и выходными данными, а также выполнять обобщение. Способности нейронной сети к прогнозированию напрямую следуют из ее способности к обобщению и выделению скрытых зависимостей между вход- ными и выходными данными. После обучения сеть способна предсказать бу- дущее значение некоторой последовательности на основе нескольких преды- дущих значений и/или каких-то существующих в настоящий момент факторов. Главным преимуществом ИНС перед другими методами прогнозирования является то, что сети с одинаковым успехом могут прогнозировать процессы, регулярная составляющая которых имеет любой закон изменения значений, в Метод решения задачи прогнозирования Індуктивне моделювання складних систем, випуск 4, 2012 216 то время как большинство остальных методов лучше всего подходит для про- цессов, регулярная составляющая которых принадлежит к определенному клас- су (очевидно, что метод полиномиального сглаживания лучше всего подходит для процессов с полиномиальной регулярной составляющей, метод сглажива- ния рядами Фурье – для процессов с периодической регулярной составляющей и т.д.). Еще одним важным преимуществом нейронных сетей является возмож- ность обучения. Метод группового учета аргументов. Метод группового учета аргументов (МГУА) [2] - это набор алгоритмов прогнозирования (а точнее математического моделирования), который основывается на разбиении исходных данных на две выборки: обучающую и проверочную и использовании опорных функций неко- торого вида, параметры которых находятся из обучающей выборки, а проверка того, насколько хорошо они моделируют заданный ряд, выполняется на прове- рочной выборке. Комбинация МГУА и ИНС. Данный подход был предложен в [3]. Суть ме- тода - использование подхода МГУА (разбиение выборки на подвыборки и по- степенное усложнение модели), но вместо полиномиальных опорных функций используются ИНС с очень простой структурой. Это увеличило применимость метода, так как большинство прогнозируемых процессов нелинейные по своей природе, а также упрощает его использование и увеличивает автономность, так как не требует задания явного вида модели, а только ее входов. Основные шаги данного метода. 1. Из данных вида { }N1n,xX n K== , где N – количество отсчётов, формиру- ются 2 исходные матрицы ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = + + − +++ N 2*k2 1k 1-Nk-N1k-N 1*k23k2k k21 (0) x x x y, xxx xxx xxx X K K KKKK K K , где k – размер окна. С помощью этих матриц в дальнейшем будет осуществ- ляться обучение сетей – каждый вектор-строка { } m1n,x,,x,x nkn2n1n KK r ==x (m – количество строк матрицы) матрицы (0)X и соответствующее ему значение ny являются обучающим примером, а вектор-столбец { } k1z,x,,x,x zkz2z1z KK r ==x - отдельной переменной. 2. Определяется вид опорных функций, а именно от каких переменных они бу- дут зависеть, например, )x,f(xf jic = или )x,x,x*x,x,f(xf 2 j 2 ijijic = , где 2 kC1c K= - количество вариантов выбора двух переменных из k возможных (в отличие от МГУА, где также определяется конкретный вид функций, например j2i10ñ x*ax*aaf ++= ). Синеглазов В.М., Чумаченко Е.И., Горбатюк В.С. Індуктивне моделювання складних систем, випуск 4, 2012 217 3. Составляются o kC (o – количество переменных, учитываемых в опорных функциях, для описанного выше примера o=2) многослойных персептронов (МП) с одним выходом, одним скрытым слоем с малым количеством нейронов (около 3), и нужным количеством входов (для опорных функций вида )x,f(xf jic = сеть должна иметь 2 входа, для )x,x,x*x,x,f(xf 2 j 2 ijijic = - 5 вхо- дов и т.д.). 4. Каждый персептрон сопоставляется с конкретной опорной функцией, а именно, выбираются переменные, которые будут подаваться на входы сети (на- пример, для опорных функций вида )x,x,x*x,x,f(xf 2 j 2 ijijic = один МП будет работать с переменными 2 2 2 12121 x,x,x*x,x,x а другой с переменными 2 k 2 1k1k1 x,x,x*x,x,x ), и обучается, используя только примеры из обучающей выборки. 5. На этом шаге следует составить исходные данные для следующей итерации алгоритма. Для этого следует определить среднеквадратическую ошибку (СКО) каждого МП на проверочной выборке и отобрать k лучших сетей, после чего составить новую матрицу , hhh hhh hhh X mkm2m1 2k2221 1k1211 (1) ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = K KKKK K K где ijh - значение выхода j-ой из k лучших сетей при подаче на её входы i-го примера, k1jm,1i KK == (либо исходная переменная). 6. Выполняется следующая итерация, но в качестве исходных примеров берет- ся уже матрица (1)X . Итерации выполняются, пока значение СКО сетей на про- верочной выборке уменьшается, либо пока не будет достигнута требуемая СКО. Метод взвешенного скользящего среднего [1].Метод основывается на про- стой модели, которая предполагает, что текущее значение n)1(t,yt K= , ряда { }n1 y,,y K является взвешенной суммой некоторого количества предыдущих значений и некоторой случайной составляющей. Тогда каждому значению при- сваивается вес тем больший, чем более «свежее» значение tt C ε+=y , ∑ ∑ = == p 1i i p 1i i-ti y* C α α , где iα – соответствующие веса значений. Метод решения задачи прогнозирования Індуктивне моделювання складних систем, випуск 4, 2012 218 3. Метод решения задачи прогнозирования на основе комплексиро- вания оценок Для начала сформируем некоторый искусственный прогнозируемый процесс, имеющий математическую модель вида 1001tsin(t),3006t101.0)( 23 K=++−= ttf , и добавим к математической модели нормальный шум t)(ε с характеристиками 500)(1000,)E( == εσε : Рис. 2. График искусственно сгенерированного процесса Попробуем идентифицировать истинную модель процесса с помощью нейронной сети. Для этого используем многослойный персептрон с одним скрытым слоем с 10 нейронами в нем, и с 5 нейронами во входном слое (активационная функция нейронов скрытого слоя - сигмоида, выходного слоя - линейная; метод обучения - Левенберга-Марквардта). После обучения ПСКО прогноза сети на всей выборке ( ( ) ( )∑ ∑ − = i 2 i i 2 ii y yŷ MSPE ) 0.0079=MSPEnet : Рис. 3. Прогноз, полученный с помощью ИНС. - прогноз, - истинная модель процесса Синеглазов В.М., Чумаченко Е.И., Горбатюк В.С. Індуктивне моделювання складних систем, випуск 4, 2012 219 Как видим, точность полученной модели недостаточна. Попробуем пред- варительно обработать данные для улучшения точности получаемой модели. Для этого используем фильтр нижних частот. После применения фильтра и обучения новой сети, ПСКО новой сети стала 0.0038=edMSPEfilter - умень- шилась в 2 раза! Попробуем использовать метод группового учета аргументов вместо ИНС. Для построения модели будем использовать квадратичные опорные функции от 2-х аргументов. В результате имеем ПСКО полученной модели 00260.MSPEgdmh = . Рис. 4. Прогноз, полученный с помощью МГУА. - прогноз, - ис- тинная модель процесса И, наконец, используем предложенный метод. Основная идея метода - комплексирование оценок, полученных с помощью различных моделей. Под комплексированием понимается взвешенная сума оценок, полученных с помощью сгенерированного набора моделей. Весовые коэффициенты определяются с помощью внешнего критерия оптимальности моделей - дисперсии на экзаменационной выборке. Множество моделей получается перебором вариантов разбиения исходной выборки на подвыборки и перебором выбранных методов прогнозирования. Таким образом, имея k1 вариантов разбиения на подвыборки и k2 методов прогнозирования, получаем k1*k2 различных моделей. Для получения окончательного прогноза, имея вектор входных данных xr необходимо выполнить следующую последовательность действий. 1. Подать этот вектор на вход каждой модели, таким образом получив вектор оценок [ ]Tkkyyy 21*1 ,,ˆ ) K )r = . Метод решения задачи прогнозирования Індуктивне моделювання складних систем, випуск 4, 2012 220 2. Получить окончательный прогноз y) как взвешенную сумму элементов вектора оценок y r ˆ . Эти шаги требуют определения весовых коэффициентов 21 *1, kkii K=α . Предложенный метод состоит из следующих этапов. 1. Предварительная обработка данных Если известно, что прогнозируемый процесс не содержит информативных выбросов, то существует несколько основных алгоритмов избавления от слу- чайных выбросов: • Простейший алгоритм, основанный на характеристиках случайной величины, согласно которому выбросами считаются все значения, отклонённые от среднего на величину, большую, чем 2…3 среднеквадратических отклонений 2σ . • Алгоритм Tukey 53H [7], который заключается в построении сглаженной последовательности, используя медианный фильтр и фильтр скользящего среднего, после чего выбросами будут считаться все исходные значения, отклонение которых от значений сглаженной последовательности больше чем некоторый наперед заданный порог k. • Описанный выше фильтр нижних частот, в различных реализациях (напри- мер, фильтр Бесселя). 2. Разбиение исходной выборки на подвыборки • По порядку. В обучающую выборку отбираются первые NC *1 точек, в проверочную - последующие NC *2 точек и в экзаменационную - оставшиеся точки, то-есть NCC *)1( 21 −− (где N - общее количество точек, 0,;1 2121 ><+ CCCC - коэффициенты, обычно выбирают 2.0,6.0 21 == CC ). • Случайным образом. Аналогично предыдущему методу, только точки отбираются не по порядку, а случайным образом, но пропорции между подвыборками сохраняются. • Каждый i-й. В проверочную выборку отбирается каждая i-я точка, из оставшихся точек в экзаменационную отбирается каждая j-я, все оставшиеся точки отбираются в обучающую выборку. • По дисперсии. Все точки ранжируются по дисперсии (под точкой понимается один пример) и потом отбираются в выборки аналогично первому методу. 3. Получение моделей с помощью перебора методов Для каждого из вышеперечисленных методов разбиения на выборки строится модель прогнозируемого процесса, используя методы прогнозирования: ИНС, МГУА, комбинация МГУА и ИНС. Таким образом, получаем 4*3=12 различных моделей. 4. Комплексирование полученных результатов Для получения реального прогноза используется комплексирование прогнозов всех полученных на предыдущем этапе моделей. То есть, имея Синеглазов В.М., Чумаченко Е.И., Горбатюк В.С. Індуктивне моделювання складних систем, випуск 4, 2012 221 оценки прогнозируемого значения [ ]Tyyy 121 ,,ˆ ) K )r = , прогноз самого значения будет равен ∑ = = 12 1 *ˆ i ii yy )α . Коэффициенты iα определяются, используя внешний критерий - дисперсию прогноза i-ой модели на экзаменационной выборке: i i σ α 1 = , где iσ - СКО прогнозов i-ой модели на экзаменационной выборке от реальных значений прогнозируемого процесса. После вычисления всех iα их следует нормализовать по формуле ∑ = = 12 1i i in i α αα . Используя предложенный метод достигается ПСКО равная :0020.0=MSPEbest Рис. 5. Прогноз, полученный с помощью предложенного метода. - про- гноз, - истинная модель процесса 4. Практическое применение Для проверки предложенного метода были использованы публично доступные данные по годовым ценам на медь в период с 1800 по 1907 г. Также, для оценки работы метода был построен и обучен многослойный перцептрон с 2 скрытыми слоями (5 и 8 нейронов в 1 и 2 скрытом слое соответственно) и 5 входами. Сравнение результатов, полученных при использовании предложенного метода и ИНС показаны на Рис. 6. Метод решения задачи прогнозирования Індуктивне моделювання складних систем, випуск 4, 2012 222 Рис. 6. Сравнение прогнозов ИНС (слева) и предложенного метода (справа). - истинные значения процесса, - прогноз 5. Заключение В данной статье предложен метод, использующий комплексирование оце- нок моделей, построенных другими методами. Среди рассмотренных наиболее перспективными методами являются ИНС (изза их универсальности и возможности обучаться), МГУА (этот метод позволяет получить точный прогноз даже при малой размерности выборки исходных данных и ее сильной зашумленности) и их комбинация. Поэтому именно эти методы использовались для генерации моделей. Предложенный алгоритм показал лучшие результаты по сравнению с ме- тодами МГУА, ИНС и их комбинация. Это говорит о возможности его даль- нейшего использования для решения задач прогнозирования. Для дальнейшего развития алгоритма следует рассмотреть использование других внешних крите- риев для определения весовых коэффициентов. Основными преимуществами алгоритма являются: - более точная модель прогнозируемого процесса (с точки зрения миниму- ма критерия СКО на всей выборке); - как результат использования МГУА и ИНС в качестве метода построения промежуточных моделей предложенный метод справляется с выборками малых размеров; - вследствие применения предварительной обработки данных предложен- ный метод является менее чувствительным к выбросам в данных; Недостатки: - так как используются сразу несколько методов прогнозирования, общее время построения модели с помощью предложенного метода может быть срав- нительно большим. По этой же причине для программной реализации метода требуются сравнительно большие вычислительные мощности. Синеглазов В.М., Чумаченко Е.И., Горбатюк В.С. Індуктивне моделювання складних систем, випуск 4, 2012 223 Литература 1. Алесинская Т.В. Методы скользяшего среднего и экспоненциального сглаживания / Т.В. Алесинская //Экономико-математические методы и модели : уч. пособие по решению задач по курсу. – Таганрог : Изд-во ТРТУ, 2002. – 153 с. 2. Івахненко А.Г. Метод групового урахування аргументів – конкурент методу стохастичної апроксимації / А.Г. Ивахненко // Автоматика. – 1968. – № 3. – C. 58-72. 3. Мак-Каллок У.С. Логическое исчисление идей, относящихся к нервной активности / У.С. Мак- Каллок, В.Питтс // Автоматы ; [под ред. К.Э. Шеннона и Дж. Маккарти]. – М. : Изд-во иностр. лит., 1956. – С. 363-384. 4. Amir F.A. A comparison between neural-network forecasting techniques – case study: river flow forecasting /F.A. Amir, I.S. Samir // IEEE Transactions on neu- ral networks. – 1999, march. – Vol. 10, № 2. – С. 402-409. 5. Mohsen H. Artificial neural network approach for short term load forecasting for Illam region / H. Mohsen, S. Yazdan // World Academy of Science, Engineering and Technology 28 2007. – С. 280-284. 6. Jerome T.C. neural networks and robust time series prediction / T.C. Jerome, R.M. Douglas, L.E. Atlas // IEEE transactions on neural networks. –1994, march. – Vol. 5, № 2. – С. 240-254. 7. Klevecka Irina. Pre-Processing of Input Data of Neural Networks: The Case of Forecasting Telecommunication Network Traffic / Irina Klevecka, Janis // Telek- tronikk 3/4.2008. – C. 168-178. 8. http://robjhyndman.com/TSDL/micro-economic/.
id nasplib_isofts_kiev_ua-123456789-45974
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn XXXX-0044
language Russian
last_indexed 2025-12-07T15:55:45Z
publishDate 2012
publisher Міжнародний науково-навчальний центр інформаційних технологій і систем НАН та МОН України
record_format dspace
spelling Синеглазов, В.М.
Чумаченко, Е.И.
Горбатюк, В.С.
2013-06-21T09:26:53Z
2013-06-21T09:26:53Z
2012
Метод решения задачи прогнозирования на основе комплексирования оценок / В.М. Синеглазов, Е.И. Чумаченко, В.С. Горбатюк // Індуктивне моделювання складних систем: Зб. наук. пр. — К.: МННЦ ІТС НАН та МОН України, 2012. — Вип. 4. — С. 214-223. — Бібліогр.: 8 назв. — рос.
XXXX-0044
https://nasplib.isofts.kiev.ua/handle/123456789/45974
004.032.26(045)
В статье рассматриваются основные методы прогнозирования. Также предлагается новый алгоритм, основанный на комплексировании оценок моделей, полученных с помощью различных методов (таких как искусственные нейронные сети, метод группового учета аргументов и их комбинации). Алгоритм был протестирован на реальных данных и показал лучшие результаты, чем каждый метод в отдельности.
У статті розглядаються основні методи прогнозування. Також пропонується новий алгоритм, заснований на комплексуванні оцінок моделей, отриманих за допомогою різних методів (таких як штучні нейронні мережі, метод групового урахування аргументів і їх комбінації). Алгоритм було протестований на реальних даних і показав кращі результати, ніж кожен метод окремо.
In this article the main forecasting methods are considered. There has been offered a new algorithm based on a complexing of estimates given by models obtained with the help of different methods (artificial neural networks, group method of data handling and their combination). Algorithm was tested on the real data and showed better results, as compared to separate methods on their own.
ru
Міжнародний науково-навчальний центр інформаційних технологій і систем НАН та МОН України
Індуктивне моделювання складних систем
Метод решения задачи прогнозирования на основе комплексирования оценок
Article
published earlier
spellingShingle Метод решения задачи прогнозирования на основе комплексирования оценок
Синеглазов, В.М.
Чумаченко, Е.И.
Горбатюк, В.С.
title Метод решения задачи прогнозирования на основе комплексирования оценок
title_full Метод решения задачи прогнозирования на основе комплексирования оценок
title_fullStr Метод решения задачи прогнозирования на основе комплексирования оценок
title_full_unstemmed Метод решения задачи прогнозирования на основе комплексирования оценок
title_short Метод решения задачи прогнозирования на основе комплексирования оценок
title_sort метод решения задачи прогнозирования на основе комплексирования оценок
url https://nasplib.isofts.kiev.ua/handle/123456789/45974
work_keys_str_mv AT sineglazovvm metodrešeniâzadačiprognozirovaniânaosnovekompleksirovaniâocenok
AT čumačenkoei metodrešeniâzadačiprognozirovaniânaosnovekompleksirovaniâocenok
AT gorbatûkvs metodrešeniâzadačiprognozirovaniânaosnovekompleksirovaniâocenok