Застосування байєсівських мереж в системах аналізу даних

Запропоновано огляд методів побудови (навчання) структури мереж Байєса. Показано, що на сьогодні існує множина методів структурного навчання МБ та критеріїв оптимізації, які можна використати при їх побудові. Тому вибір методу навчання структури мережі повинен ґрунтуватись на докладному поглибленому...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Datum:2011
Hauptverfasser: Бідюк, П.І., Трофимчук, О.М., Савенков, О.І.
Format: Artikel
Sprache:Ukrainian
Veröffentlicht: Інститут телекомунікацій і глобального інформаційного простору НАН України 2011
Schriftenreihe:Екологічна безпека та природокористування
Schlagworte:
Online Zugang:https://nasplib.isofts.kiev.ua/handle/123456789/58211
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Zitieren:Застосування байєсівських мереж в системах аналізу даних / П.І. Бідюк, О.М. Трофимчук, О.І. Савенков // Екологічна безпека та природокористування: Зб. наук. пр. — К., 2011. — Вип. 8. — С. 191-212. — Бібліогр.: 39 назв. — укр.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id nasplib_isofts_kiev_ua-123456789-58211
record_format dspace
spelling nasplib_isofts_kiev_ua-123456789-582112025-02-09T14:47:59Z Застосування байєсівських мереж в системах аналізу даних Бідюк, П.І. Трофимчук, О.М. Савенков, О.І. Науково-технологічна безпека та інтелектуальні ресурси Запропоновано огляд методів побудови (навчання) структури мереж Байєса. Показано, що на сьогодні існує множина методів структурного навчання МБ та критеріїв оптимізації, які можна використати при їх побудові. Тому вибір методу навчання структури мережі повинен ґрунтуватись на докладному поглибленому аналізі задачі, яка розв’язується за допомогою мережі, та можливості отримання достовірних експертних і статистичних даних. Наведено практичний приклад застосування БМ. Предложен обзор методов построения (обучения) структуры сетей Байеса (СБ). Показано, что на сегодня существует множество методов структурного обучения СБ и критериев оптимизации, которые можно использовать при их построении. Поэтому выбор метода обучения структуры сети должен базироваться на углубленном анализе задачи, которая решается с помощью сети, и возможности получения достоверных экспертных и статистических данных. Приведен практический пример использования БС. A review is proposed of structural learning for Bayesian networks (BN). It is shown that today exists a wide set of structural learning methods for BN as well as optimization criteria that could be used for learning. That is why the selection of a learning method should be based on profound analysis of the problem to be solved by BN and the possibility of obtaining truthful expert and statistical data. A practical example of Bayesian network application is given. 2011 Article Застосування байєсівських мереж в системах аналізу даних / П.І. Бідюк, О.М. Трофимчук, О.І. Савенков // Екологічна безпека та природокористування: Зб. наук. пр. — К., 2011. — Вип. 8. — С. 191-212. — Бібліогр.: 39 назв. — укр. XXXX-0062 https://nasplib.isofts.kiev.ua/handle/123456789/58211 519.226 uk Екологічна безпека та природокористування application/pdf Інститут телекомунікацій і глобального інформаційного простору НАН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Ukrainian
topic Науково-технологічна безпека та інтелектуальні ресурси
Науково-технологічна безпека та інтелектуальні ресурси
spellingShingle Науково-технологічна безпека та інтелектуальні ресурси
Науково-технологічна безпека та інтелектуальні ресурси
Бідюк, П.І.
Трофимчук, О.М.
Савенков, О.І.
Застосування байєсівських мереж в системах аналізу даних
Екологічна безпека та природокористування
description Запропоновано огляд методів побудови (навчання) структури мереж Байєса. Показано, що на сьогодні існує множина методів структурного навчання МБ та критеріїв оптимізації, які можна використати при їх побудові. Тому вибір методу навчання структури мережі повинен ґрунтуватись на докладному поглибленому аналізі задачі, яка розв’язується за допомогою мережі, та можливості отримання достовірних експертних і статистичних даних. Наведено практичний приклад застосування БМ.
format Article
author Бідюк, П.І.
Трофимчук, О.М.
Савенков, О.І.
author_facet Бідюк, П.І.
Трофимчук, О.М.
Савенков, О.І.
author_sort Бідюк, П.І.
title Застосування байєсівських мереж в системах аналізу даних
title_short Застосування байєсівських мереж в системах аналізу даних
title_full Застосування байєсівських мереж в системах аналізу даних
title_fullStr Застосування байєсівських мереж в системах аналізу даних
title_full_unstemmed Застосування байєсівських мереж в системах аналізу даних
title_sort застосування байєсівських мереж в системах аналізу даних
publisher Інститут телекомунікацій і глобального інформаційного простору НАН України
publishDate 2011
topic_facet Науково-технологічна безпека та інтелектуальні ресурси
url https://nasplib.isofts.kiev.ua/handle/123456789/58211
citation_txt Застосування байєсівських мереж в системах аналізу даних / П.І. Бідюк, О.М. Трофимчук, О.І. Савенков // Екологічна безпека та природокористування: Зб. наук. пр. — К., 2011. — Вип. 8. — С. 191-212. — Бібліогр.: 39 назв. — укр.
series Екологічна безпека та природокористування
work_keys_str_mv AT bídûkpí zastosuvannâbajêsívsʹkihmerežvsistemahanalízudanih
AT trofimčukom zastosuvannâbajêsívsʹkihmerežvsistemahanalízudanih
AT savenkovoí zastosuvannâbajêsívsʹkihmerežvsistemahanalízudanih
first_indexed 2025-11-27T01:11:38Z
last_indexed 2025-11-27T01:11:38Z
_version_ 1849903965971415040
fulltext 191 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè УДК 519.226 ЗАСТОСУВАННЯ БАЙЄСІВСЬКИХ МЕРЕЖ В СИСТЕМАХ АНАЛІЗУ ДАНИХ П.І. Бідюк, д-р техн. наук, проф. (Інститут прикладного системного аналізу НУТУ «КПІ»); О.М. Трофимчук, д-р техн. наук, проф. (Інститут телекомунікацій і глобального інформаційного простору) О.І. Савенков, д-р. техн. наук, проф. (Національна академія управління). Запропоновано огляд методів побудови (навчання) структури мереж Байєса. Показано, що на сьогодні існує множина методів структурного навчання МБ та критеріїв оптимізації, які можна використати при їх побудові. Тому вибір методу навчання структури мережі повинен ґрунту- ватись на докладному поглибленому аналізі задачі, яка розв’язується за допомогою мережі, та можливості отримання достовірних експертних і статистичних даних. Наведено практичний приклад застосування БМ. Предложен обзор методов построения (обучения) структуры сетей Байеса (СБ). Показано, что на сегодня существует множество методов структурного обучения СБ и критериев оптимизации, которые можно использовать при их построении. Поэтому выбор метода обучения структуры сети должен базироваться на углубленном анализе задачи, которая решается с помощью сети, и возможности получения досто- верных экспертных и статистических данных. Приведен практический пример использования БС. A review is proposed of structural learning for Bayesian networks (BN). It is shown that today exists a wide set of structural learning methods for BN as well as optimization criteria that could be used for learning. That is why the selection of a learning method should be based on profound analysis of the problem to be solved by BN and the possibility of obtaining truthful expert and statistical data. A practical example of Bayesian network application is given.  П.І. Бідюк, О.М. Трофимчук, О.І. Савенков, 2011 192 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ 1. Ñó÷àñí³ ìåòîäè àíàë³çó äàíèõ Ç êîæíèì ðîêîì ñòð³ìêî çá³ëüøóþòüñÿ îá’ºìè ³íôîðìàö³¿ â ð³çíèõ ãàëóçÿõ; ³íôîðìàö³éí³ ïîòîêè ôîðìóþòüñÿ ó íàóö³, á³çíåñ³, òåõíîëîã³÷íèõ ³ òåõí³÷íèõ ñèñòåìàõ. Ñóòòºâî çðîñòàþòü ìàñèâè ³íôîðìàö³¿, íåîáõ³äíî¿ äëÿ çíàõîäæåííÿ êîðåêòíèõ ðîç- â’ÿçê³â áàãàòüîõ çàäà÷. Àíàë³òèêè ðîçâ’ÿçóþòü çàäà÷³, âèõîäÿ÷è ³ç ñâî¿õ çíàíü ³ äîñâ³äó, àëå çíàííÿ ì³ñòÿòüñÿ òàêîæ ó íàêîïè- ÷åíèõ äàíèõ, ÿê³ íåîáõ³äíî àíàë³çóâàòè. Òàê³ çíàííÿ ÷àñòî íà- çèâàþòü «ïðèõîâàíèìè», îñê³ëüêè âîíè âèìàãàþòü äëÿ çáåð³- ãàííÿ ã³ãàáàéò³â ³ òåðàáàéò³â ³íôîðìàö³¿, ÿê³ ëþäèíà íå â çìîç³ äîñë³äèòè ñàìîñò³éíî. Î÷åâèäíî, ùî äëÿ âèÿâëåííÿ ïðèõîâàíèõ çíàíü ³ç âåëè÷åçíîãî îá’ºìó ³íôîðìàö³¿ ïîòð³áíî çàñòîñîâóâàòè ñïåö³àëüí³ ìåòîäè àâòîìàòèçîâàíîãî àíàë³çó äàíèõ. «×åðåç âåëè- êó ê³ëüê³ñòü ³íôîðìàö³¿ ò³ëüêè äóæå ìàëà ¿¿ ÷àñòèíà áóäå êîëè- íåáóäü ïîáà÷åíà ëþäñüêèì îêîì. Íàøà ºäèíà íàä³ÿ ïîëÿãຠó òîìó, ùîá çðîçóì³òè òà çíàéòè ùîñü êîðèñíå ó öüîìó îêåàí³ ³íôîðìàö³¿ çàâäÿêè øèðîêîìó çàñòîñóâàííþ ìåòîä³â Data Mining», — â³äçíà÷èâ îäèí ³ç çàñíîâíèê³â öüîãî íàïðÿìó Ãðè- ãîð³é Ï’ÿòåöüêèé-Øàï³ðî (Gregory P³atetsky-Shap³ro) [1, 2]. Ñóòü ³ ìåòà òåõíîëî㳿 Data Mining ïîëÿãàþòü ó ïîøóêó íåî- ÷åâèäíèõ, îá’ºêòèâíèõ ³ êîðèñíèõ íà ïðàêòèö³ çàêîíîì³ðíîñòåé ó âåëèêèõ îáñÿãàõ äàíèõ.  îñíîâó ñó÷àñíî¿ òåõíîëî㳿 Data Mining ïîêëàäåíà êîíöåïö³ÿ øàáëîí³â (ïàòòåðí³â), ÿê³ â³äîáðàæàþòü ôðàãìåíòè áàãàòîàñïåêòíèõ âçàºìîâ³äíîñèí â äàíèõ. Ö³ ôðàãìåí- òè ïðåäñòàâëÿþòü ñîáîþ çàêîíîì³ðíîñò³, âëàñòèâ³ âèá³ðêàì äà- íèõ, ÿê³ ìîæóòü áóòè âèðàæåí³ êîìïàêòíî ó çðîçóì³ë³é ëþäèí³ ôîðì³. Ïîøóê øàáëîí³â çä³éñíþºòüñÿ çà ìåòîäàìè, íå îáìåæå- íèìè ðàìêàìè àïð³îðíèõ ïðèïóùåíü ñòîñîâíî ñòðóêòóðè âèá³ð- êè òà âèäó ðîçïîä³ëó çíà÷åíü çì³ííèõ, ùî àíàë³çóþòüñÿ. Òåõíîëî㳿 Data Mining ëåæàòü íà ïåðåòèí³ äåê³ëüêîõ íàóê (ðèñ. 1). Äî ìåòîä³â òà àëãîðèòì³â Data Mining â³äíîñÿòü øòó÷í³ íåéðîíí³ ìåðåæ³, äåðåâà ð³øåíü, ñèìâîëüí³ ïðàâèëà, ìåòîäè íàéáëèæ÷îãî ñóñ³äà ³ −k íàéáëèæ÷îãî ñóñ³äà, ìåòîä îïîðíèõ âåêòîð³â, áàéºñ³âñüê³ ìåðåæ³, ë³í³éíó ðåãðåñ³þ; ³ºðàðõ³÷í³ òà í峺ðàðõ³÷í³ ìåòîäè êëàñòåðíîãî àíàë³çó, ó òîìó ÷èñë³ àëãîðèò- ìè −k ñåðåäí³õ ³ −k ìåä³àíè; ìåòîäè ïîøóêó àñîö³àòèâíèõ ïðàâèë; åâîëþö³éíå ïðîãðàìóâàííÿ ³ ãåíåòè÷í³ àëãîðèòìè; 193 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè ìåòîäè â³çóàë³çàö³¿ äàíèõ òà ³íø³ ìåòîäè. Äî çàäà÷ Data Mining â³äíîñÿòü: êëàñèô³êàö³þ, êëàñòåðèçàö³þ, àñîö³àö³þ, ïîñë³äîâíó àñîö³àö³þ, ïðîãíîçóâàííÿ, âèçíà÷åííÿ â³äõèëåíü àáî âèêèä³â, îö³íþâàííÿ ïàðàìåòð³â ³ ñòàí³â äèíàì³÷íèõ ñèñòåì, àíàë³ç âçàºìíèõ çâ’ÿçê³â ì³æ ïîä³ÿìè, â³çóàë³çàö³þ ìàñèâ³â äàíèõ, ï³äâåäåííÿ ï³äñóìê³â ³ ò. ³í. 2. Áàéºñ³âñüêà ìåðåæà — ³íñòðóìåíò ³íòåëåêòóàëüíîãî àíàë³çó äàíèõ ²íòåëåêòóàëüíèé àíàë³ç äàíèõ (²ÀÄ) — ìóëüòèäèñöèïë³íàðíà îáëàñòü, ùî âèíèêëà òà ðîçâèâàºòüñÿ íà áàç³ òàêèõ íàóê, ÿê ïðèêëàäíà ñòàòèñòèêà, ðîçï³çíàâàííÿ îáðàç³â, øòó÷íèé ³íòå- ëåêò, òåîð³ÿ áàç äàíèõ òà ³í. (ðèñ. 1). Ðèñ. 1. ²ÀÄ ÿê ìóëüòèäèñöèïë³íàðíà îáëàñòü. Á³ëüø³ñòü ³íñòðóìåíò³â ³íòåëåêòóàëüíîãî àíàë³çó äàíèõ ´ðóí- òóºòüñÿ íà äâîõ òåõíîëîã³ÿõ: ìàøèííå íàâ÷àííÿ (machine learning) ³ â³çóàë³çàö³ÿ (â³çóàëüíå ïîäàííÿ ³íôîðìàö³¿). Ö³ äâ³ òåõíîëî㳿 ÿêðàç ³ ïîºäíóþòü ó ñîá³ áàéºñ³âñüê³ ìåðåæ³ (ÁÌ). Öå â³äíîñíî ìîëîäèé íàïðÿì ðîçâèòêó ìåòîä³â ìîäåëþâàííÿ, ïðîãíîçóâàííÿ òà êëàñèô³êàö³¿, ÿêèé ç’ÿâèâñÿ íà ñòèêó òåî𳿠éìîâ³ðíîñòåé ³ òåî𳿠ãðàô³â (ðèñ. 2). ÁÌ — öå ãðàôè ³ç äå- ÿêèìè õàðàêòåðíèìè âëàñòèâîñòÿìè. ²äåÿ ñòâîðåííÿ ³ çàñòîñó- âàííÿ ÁÌ ïîëÿãຠó êîðåêòíîìó ïðåäñòàâëåíí³ ïðè÷èííî-íà- ñë³äêîâèõ çâ’ÿçê³â, õàðàêòåðíèõ äëÿ äîñë³äæóâàíîãî ïðîöåñó, ó âèãëÿä³ ñïðÿìîâàíîãî ãðàôà. 194 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ Ðèñ. 2. ÁÌ íà ñòèêó äâîõ íàóê. Òîìàñ Áàéºñ (àíãë³éñüêèé ñâÿùåíèê ñåðåäèíè XVIII ñòî- ë³òòÿ) îäíèì ç ïåðøèõ çàö³êàâèâñÿ éìîâ³ðí³ñòþ íàñòàííÿ ïîä³é ó ìàéáóòíüîìó, ´ðóíòóþ÷èñü íà ³íôîðìàö³¿ ïðî ìèíóë³ âèï- ðîáóâàííÿ, ôàêòè òà ïî䳿. Ñàìå òåîðåìà Áàéºñà ïîâ’ÿçóº àïð³îðí³ òà àïîñòåð³îðí³ éìîâ³ðíîñò³ ïîä³é ï³ñëÿ ñïîñòåðåæåííÿ çà íà- ñë³äêàìè, òîáòî ï³ñëÿ îòðèìàííÿ äîäàòêîâî¿ ³íôîðìàö³¿ çàâäÿ- êè åêñïåðèìåíòó. Äî âïðîâàäæåííÿ òåðì³íó «áàéºñ³âñüêà ìå- ðåæà» Äæóä³ Ïåðë çàñòîñîâóâàâ ÁÌ ï³ä íàçâîþ «êàóçàëüí³ ìåðåæ³» (causal networks), òîáòî ìåðåæ³ ç ïðè÷èííî-íàñë³äêî- âèìè çâ’ÿçêàìè. Áàéºñ³âñüêèìè âîíè ñòàëè çàâäÿêè çàñòîñó- âàííþ â êàóçàëüíèõ ìåðåæàõ òåîðåìè Áàéºñà. Òåîðåìà Áàéºñà äëÿ äèñêðåòíèõ ïàðàìåòð³â ³ äèñêðåòíèõ ïîä³é (ñïðîùåíèé âàð³àíò). Íåõàé −nННН ...,,, 21 ïîïàðíî íåñóì³ñí³ ïî䳿, ê³ëüê³ñòü ÿêèõ çá³ãàºòüñÿ ç óñ³ì âèá³ðêîâèì ïðîñòîðîì ïîä³é. Òîä³ äëÿ áóäü-ÿêî¿ âèïàäêîâî¿ ïî䳿 X, ùî ìîæå ç’ÿâè- òèñÿ ëèøå çà óìîâè ïîÿâè îäí³º¿ ç ïîä³é nННН ...,,, 21 , ³ òàêî¿, ùî 0)( ≠XP , âèêîíóºòüñÿ ð³âí³ñòü: nk HpHXp HpHXp XHp n i ii kk k ,1, )()|( )()|( )|( 1 = ⋅ ⋅ = ∑ = . (1) Ó âèðàç³ (1) kH îçíà÷ຠáóäü-ÿêó ã³ïîòåçó ç n ìîæëèâèõ. Éìîâ³ðíîñò³ )|( kHXp çàäàþòüñÿ åêñïåðòàìè àïð³îðíî, àáî ¿õ ðîçðàõîâóþòü çà íàâ÷àëüíèìè äàíèìè. Òîáòî ¿õ ìîæíà ðîçã- ëÿäàòè ÿê â³äïîâ³äü íà çàïèòàííÿ: «ßêîþ áóäå éìîâ³ðí³ñòü ïîÿâè äåÿêî¿ ïîä³é (äåÿêîãî âèì³ðó) çà óìîâè, ùî â³äîìî, ÿêà ã³ïîòåçà áóëà ðåàë³çîâàíà?». Óìîâí³ éìîâ³ðíîñò³ )|( kHXp (¿õ íàçèâàþòü ùå ïðàâäîïîä³áí³ñòþ) º äóæå êîðèñíèìè, òîìó ùî, ÿê ïðàâè- 195 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè ëî, ëåãøå çíàéòè éìîâ³ðí³ñòü ïîñë³äîâíîñò³ ïîä³é òèïó ïðè÷è- íà-íàñë³äîê, í³æ íàâïàêè. Çíà÷åííÿ )( kHp íàçèâàþòü àïð³îð- íèìè éìîâ³ðíîñòÿìè, òîìó ùî âîíè âèçíà÷àþòü ïî÷àòêîâ³ éìî- â³ðíîñò³ äëÿ âñ³õ ã³ïîòåç. Î÷åâèäíî, ùî ïîòóæí³ñòü áàéºñ³âñüêîãî ìåòîäó ïîëÿãຠó ìîæëèâîñò³ óòî÷íåííÿ (îíîâëåííÿ) àïð³îð- íèõ éìîâ³ðíîñòåé ó â³äïîâ³äíîñò³ äî ôàêòè÷íèõ ðåàë³é ïðî- ò³êàííÿ ïðîöåñó, ùî äîñë³äæóºòüñÿ. Öå äîçâîëÿº óòî÷íþâàòè àïð³îðí³ éìîâ³ðíîñò³ ïîä³é ïðè íàäõîäæåíí³ äîäàòêîâî¿ ³íôîð- ìàö³¿. Î÷åâèäíî, ùî òàêå óòî÷íåííÿ ìîæå áóòè ³òåðàö³éíèì, òîáòî íà íàñòóïíîìó åòàï³ äîñë³äæåííÿ îòðèìàí³ àïîñòåð³îðí³ éìîâ³ðíîñò³ ìîæíà ïðèéíÿòè çà àïð³îðí³. 2.1. Ïåðåâàãè çàñòîñóâàííÿ áàéºñ³âñüêèõ ìåðåæ Â ðàìêàõ òåõíîëî㳿 ²ÀÄ ãîëîâíà ö³íí³ñòü ÁÌ ïîëÿãຠó ¿õ çäàòíîñò³ âèÿâëÿòè íåâ³äîì³ òà íåòðèâ³àëüí³ çâ’ÿçêè ì³æ ôàê- òîðàìè, ïðî ÿê³ ³íîä³ íàâ³òü ñàì³ åêñïåðòè ó â³äïîâ³äí³é ïðåä- ìåòí³é îáëàñò³ íå çàâæäè ìàþòü óÿâó. Áàéºñ³âñüê³ ìåðåæ³ çíà- õîäÿòü ñâîº ïðàêòè÷íå çàñòîñóâàííÿ ó òàêèõ ñôåðàõ, ÿê ìåäèöèíà, ô³íàíñè òà åêîíîì³êà, êîìï’þòåðè ³ ñèñòåìíå ïðî- ãðàìíå çàáåçïå÷åííÿ, îáðîáêà çîáðàæåíü òà â³äåî, â³éñüêîâà ñïðàâà, êîñì³÷í³ ïîëüîòè òà äîñë³äæåííÿ, à òàêîæ ³ áàãàòüîõ ³íøèõ ñôåðàõ. Íà â³äì³íó â³ä ³íøèõ ìåòîä³â ²ÀÄ, çàñòîñóâàííÿ áàéºñ³âñü- êèõ ìåðåæ äî àíàë³çó ïðîöåñ³â ð³çíî¿ ïðèðîäè, ä³ÿëüíîñò³ ëþäèíè òà ôóíêö³îíóâàííÿ òåõí³÷íèõ ñèñòåì äîçâîëÿº âðàõî- âóâàòè òà âèêîðèñòîâóâàòè áóäü-ÿê³ âõ³äí³ äàí³ ó âèãëÿä³ åêñ- ïåðòíèõ îö³íîê ³ ñòàòèñòè÷íî¿ ³íôîðìàö³¿.  ñâîþ ÷åðãó, çì³íí³ ìîæóòü áóòè äèñêðåòíèìè ³ íåïåðåðâíèìè, à õàðàêòåð ¿õ íàä- õîäæåííÿ ó ïðîöåñ³ àíàë³çó òà ïðèéíÿòòÿ ð³øåííÿ ìîæå áóòè â ðåæèì³ ðåàëüíîãî ÷àñó ³ ó âèãëÿä³ ñòàòè÷íèõ ìàñèâ³â ³íôîð- ìàö³¿ òà áàç äàíèõ. Çàâäÿêè âèêîðèñòàííþ ïðåäñòàâëåííÿ âçàº- ìî䳿 ì³æ ôàêòîðàìè ïðîöåñó ó âèãëÿä³ ïðè÷èííî-íàñë³äêîâèõ çâ’ÿçê³â ó ìåðåæ³ äîñÿãàºòüñÿ ìàêñèìàëüíî âèñîêèé ð³âåíü â³çóàë³çàö³¿ òà ÷³òêå ðîçóì³ííÿ ñóò³ âçàºìî䳿 ì³æ ôàêòîðàìè ïðîöåñó. ²íøèìè ïåðåâàãàìè ÁÌ º ìîæëèâîñò³ âðàõóâàííÿ íåâèçíà÷åíîñòåé ñòàòèñòè÷íîãî, ñòðóêòóðíîãî ³ ïàðàìåòðè÷íî- ãî õàðàêòåðó, à òàêîæ ôîðìóâàííÿ âèñíîâêó (ïðèéíÿòòÿ ð³øåí- íÿ) çà äîïîìîãîþ ð³çíèõ ìåòîä³â — íàáëèæåíèõ ³ òî÷íèõ. 196 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ Çàãàëîì ìîæíà ñêàçàòè, ùî ÁÌ — öå âèñîêîðåñóðñíèé ìåòîä éìîâ³ðí³ñíîãî ìîäåëþâàííÿ ïðîöåñ³â äîâ³ëüíî¿ ïðèðîäè ç íåâèçíà- ÷åíîñòÿìè ð³çíèõ òèï³â, ÿêèé çàáåçïå÷óº ìîæëèâ³ñòü äîñòàòíüî òî÷íîãî îïèñó ¿õ ôóíêö³îíóâàííÿ, îö³íþâàòè ïðîãíîçè, ðîçâ’ÿçó- âàòè çàäà÷³ êëàñèô³êàö³¿ òà áóäóâàòè ñèñòåìè óïðàâë³ííÿ. 2.2. Ìàòåìàòè÷íèé îïèñ áàéºñ³âñüêî¿ ìåðåæ³ ÁÌ ïðåäñòàâëÿº ñîáîþ ïàðó >< BG, , ó ÿê³é ïåðøà êîìïî- íåíòà G — öå ñïðÿìîâàíèé àöèêë³÷íèé ãðàô, ùî â³äïîâ³äຠçì³ííèì äîñë³äæóâàíîãî ïðîöåñó ³ ïðåäñòàâëÿºòüñÿ ó âèãëÿä³ ïðè÷èííî-íàñë³äêîâî¿ ìåðåæ³. Äðóãà êîìïîíåíòà ïàðè, B — öå ìíîæèíà ïàðàìåòð³â, ùî âèçíà÷àþòü ìåðåæó. Öÿ êîìïî- íåíòà ì³ñòèòü ïàðàìåòðè ( ) ( )( ))()( )()( ii XpaX XpaXPii =Θ äëÿ êîæ- íîãî ìîæëèâîãî çíà÷åííÿ )()( ii Xx ∈ òà )()( )()( ii XPaXpa ∈ , äå )( )(iXPa ïîçíà÷ຠíàá³ð áàòüê³â çì³ííî¿ GX i ∈)( . Êîæí³é çì³íí³é GX i ∈)( â³äïîâ³äຠîêðåìà âåðøèíà. ßêùî ðîçãëÿäà- þòü á³ëüøå îäíîãî ãðàôà, òî äëÿ âèçíà÷åííÿ áàòüê³â çì³ííî¿ )(iX â ãðàô³ G âèêîðèñòîâóþòü ïîçíà÷åííÿ )( )(iG XPa . Ïîâíà ñï³ëüíà éìîâ³ðí³ñòü ÁÌ îá÷èñëþºòüñÿ çà ôîðìóëîþ: ))((),...,( )()( 1 )()1( ii B N i N B XPaXPXXP ∏ == . Ç ìàòåìàòè÷íî¿ òî÷êè çîðó ÁÌ — öå ìîäåëü ïðåäñòàâëåííÿ íàÿâíèõ ³ìîâ³ðí³ñíèõ çàëåæíîñòåé. Ïðè öüîìó çâ’ÿçîê BA → º ïðè÷èííèì, ÿêùî ïîä³ÿ A º ïðè÷èíîþ âèíèêíåííÿ B , òîáòî êîëè ³ñíóº ìåõàí³çì, â³äïîâ³äíî äî ÿêîãî çíà÷åííÿ, ïðèéíÿòå A , âïëèâຠíà çíà÷åííÿ, ïðèéíÿòå B . ÁÌ íàçèâà- þòü ïðè÷èííîþ (êàóçàëüíîþ), ÿêùî âñ³ ¿¿ çâ’ÿçêè ïðè÷èíí³. Íàñïðàâä³ áàéºñ³âñüêà ìåòîäîëîã³ÿ íàáàãàòî øèðøà í³æ ñ³ìåé- ñòâî çàñîá³â ìàí³ïóëþâàííÿ ç óìîâíèìè éìîâ³ðíîñòÿìè â îð³ºíòîâàíèõ ãðàôàõ. Âîíà âêëþ÷ຠâ ñåáå òàêîæ ìîäåë³ ³ç ñèìåòðè÷íèìè çâ’ÿçêàìè (âèïàäêîâ³ ïîëÿ òà ðåø³òêè), ìîäåë³ äèíàì³÷íèõ ïðîöåñ³â (ëàíöþãè Ìàðêîâà), à òàêîæ øèðîêèé 197 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè êëàñ ìîäåëåé ³ç ïðèõîâàíèìè çì³ííèìè, ÿê³ äàþòü ìîæëèâ³ñòü ðîçâ’ÿçóâàòè çàäà÷³ ³ìîâ³ðí³ñíî¿ êëàñèô³êàö³¿, ðîçï³çíàâàííÿ îáðàç³â, ïðîãíîçóâàííÿ òà êåðóâàííÿ. Íîâ³ îáëàñò³ çàñòîñóâàí- íÿ ÁÌ òàê³: (1) äèíàì³÷í³ ïðîöåñè ³ äèíàì³÷íå ïðîãðàìóâàííÿ; (2) îïòèìàëüíå êåðóâàííÿ ñòîõàñòè÷íèìè ñèñòåìàìè; (3) ïðèé- íÿòòÿ ð³øåíü â àâòîíîìíèõ ³íòåëåêòóàëüíèõ ñèñòåìàõ (íàïðèê- ëàä, ³íòåëåêòóàëüíèõ ñèñòåìàõ ï³äòðèìêè ïðèéíÿòòÿ ð³øåíü). 2.3. Òèïè áàéºñ³âñüêèõ ìåðåæ 1. Äèñêðåòí³ ÁÌ — ìåðåæ³, ó ÿêèõ çì³íí³ âóçë³â ïðåäñòàâ- ëåí³ äèñêðåòíèìè âåëè÷èíàìè. Äèñêðåòí³ ÁÌ ìàþòü òàê³ âëà- ñòèâîñò³: — êîæíà âåðøèíà ïðåäñòàâëÿº ñîáîþ ïîä³þ, ùî îïèñóºòüñÿ âèïàäêîâîþ âåëè÷èíîþ, ÿêà ìîæå ìàòè ê³ëüêà ñòàí³â; — âñ³ âåðøèíè, ïîâ’ÿçàí³ ç «áàòüê³âñüêèìè», âèçíà÷àþòüñÿ òàáëèöåþ óìîâíèõ iìîâ³ðíîñòåé (ÒÓI) àáî ôóíêö³ºþ óìîâíèõ éìîâ³ðíîñòåé; — äëÿ âåðøèí áåç «áàòüê³â» éìîâ³ðíîñò³ ¿õ ñòàí³â º áåçó- ìîâíèìè (ìàðã³íàëüíèìè). ²íàêøå êàæó÷è, ó áàéºñ³âñüêèõ ìåðåæàõ äîâ³ðè âåðøèíè ïðåäñòàâëÿþòü ñîáîþ âèïàäêîâ³ çì³íí³, à äóãè — ³ìîâ³ðí³ñí³ çàëåæíîñò³, ÿê³ âèçíà÷àþòüñÿ òàáëèöÿìè óìîâíèõ ³ìîâ³ðíîñ- òåé. ÒÓ² êîæíî¿ âåðøèíè ì³ñòèòü éìîâ³ðíîñò³ ñòàí³â ö³º¿ âåðøè- íè çà óìîâè êîíêðåòíèõ çíà÷åíü ñòàí³â ¿¿ «áàòüê³â». Íà ðèñ. 3 íàâåäåíî ïðèêëàä äèñêðåòíî¿ ÁÌ, êîæíà âåðøèíà ÿêî¿ ìîæå ïðèéìàòè îäèí ³ç äâîõ ñòàí³â F àáî T (ñêîðî÷åííÿ â³ä «false» ³ «true»). Çàïèñ )( BAP îçíà÷ຠéìîâ³ðí³ñòü íàñòàííÿ ïî䳿 A çà óìîâè, ùî ïîä³ÿ B âæå â³äáóëàñü. 2. Äèíàì³÷í³ ÁÌ — ìåðåæ³, ó ÿêèõ çíà÷åííÿ âóçë³â çì³íþþòüñÿ ç ÷àñîì, òîáòî öå ìåðåæà, ÿêà îïèñóº ñòàíè äèíàì³÷íî¿ ñèñòåìè. Äèíàì³÷í³ ÁÌ ³äåàëüíî ï³äõîäÿòü äëÿ ìîäåëþâàííÿ ïðîöåñ³â, ÿê³ çì³íþþòüñÿ ó ÷àñ³. ¯õ ïåðåâàãà ïîëÿãຠó òîìó, ùî âîíè âèêîðèñòîâóþòü òàáëè÷íå ïðåäñòàâëåííÿ óìîâíèõ éìîâ³ðíîñ- òåé, ùî ïîëåãøóº, íàïðèêëàä, ïðåäñòàâëåííÿ ð³çíèõ íåë³í³éíèõ ÿâèù [39]. Òðåáà ï³äêðåñëèòè, ùî òåðì³í «÷àñîâà áàéºñ³âñüêà ìåðåæà» (temporal Bayes³an network) êðàùå â³äîáðàæàº ñóòü, í³æ «äèíàì³÷íà áàéºñ³âñüêà ìåðåæà» (dynam³c Bayes³an network), îñê³ëüêè òóò ïåðåäáà÷àºòüñÿ, ùî ñòðóêòóðà ìîäåë³ íå çì³íþºòü- 198 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ Ðèñ. 3. Äèñêðåòíà ÁÌ ç òàáëèöåþ óìîâíèõ iìîâ³ðíîñòåé. ñÿ. Çàçâè÷àé ïàðàìåòðè ìîäåë³ íå çì³íþþòüñÿ ç ÷àñîì, àëå äî ñòðóêòóðè ìåðåæ³ çàâæäè ìîæíà äîäàòè äîäàòêîâ³ ïðèõîâàí³ âóçëè äëÿ óòî÷íåííÿ îïèñó ïîòî÷íîãî ñòàíó ïðîöåñó [21]. Íàéïðîñò³øèé òèï äèíàì³÷íî¿ ÁÌ — öå ïðèõîâàíà ìîäåëü Ìàðêîâà (Hidden Markov Model), ó êîæíîìó øàð³ ÿêî¿ íàÿâíèé îäèí äèñêðåòíèé ïðèõîâàíèé âóçîë òà îäèí äèñêðåòíèé àáî áåçïåðåðâíèé ñïîñòåðåæóâàíèé âóçîë. ²ëþñòðàö³ÿ ìîäåë³ íàâå- äåíà íà ðèñ. 4. Êðóãë³ âåðøèíè ïîçíà÷àþòü íåïåðåðâí³ âóçëè, êâàäðàòí³ ïîçíà÷àþòü äèñêðåòí³; X — ïðèõîâàí³ âóçëè, à Y — ñïîñòåðåæóâàí³. Äëÿ âèçíà÷åííÿ äèíàì³÷íî¿ ÁÌ ïîòð³áíî çàäà- òè ïî÷àòêîâèé ðîçïîä³ë ))(( tXP , òîïîëîã³þ óñåðåäèí³ øàðó òà ì³æøàðîâó òîïîëîã³þ (ì³æ äâîìà øàðàìè) ))()(( tXtYP [22]. Ìåðåæ³ òàêîãî òèïó âèêîðèñòîâóþòü äëÿ ðîçï³çíàâàííÿ ìîâè. Ó öüîìó âèïàäêó âóçëè ),...2(),1(),( ++ tYtYtY ïðåäñòàâëÿþòü ñîáîþ ôîíåìè ñë³â, à âóçëè ),...2(),1(),( ++ tXtXtX — öå áóê- âè, ç ÿêèõ ñêëàäàºòüñÿ ñëîâî. Òàêà ìîäåëü º äèíàì³÷íîþ â òîìó ñåíñ³, ùî äàíà ìåðåæà áóäå ïðåäñòàâëÿòè ñîáîþ ìíîæèíó áëîê³â, ÿê³ ïîâòîðþþòüñÿ ó ð³çí³ ìîìåíòè ÷àñó [4]. 199 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè Ðèñ. 4. Ñêðèòà äâîøàðîâà ìîäåëü Ìàðêîâà, â ÿê³é X — ïðèõîâàí³ äèñêðåòí³, à Y — äèñêðåòí³ àáî íåïåðåðâí³ ñïîñòåðåæóâàí³ âóçëè. 3. Íåïåðåðâí³ ÁÌ — ìåðåæ³, â ÿêèõ çì³íí³ âóçë³â — öå íåïåðåðâí³ âåëè÷èíè. Ó áàãàòüîõ âèïàäêàõ ïî䳿 ìîæóòü ïðèé- ìàòè áóäü-ÿê³ ñòàíè ç äåÿêîãî ä³àïàçîíó. Òîáòî çì³ííà X — íåïåðåðâíà âèïàäêîâà âåëè÷èíà, ïðîñòîðîì ìîæëèâèõ ñòàí³â ÿêî¿ º âåñü ä³àïàçîí ¿¿ äîïóñòèìèõ çíà÷åíü { }bxaxX ≤≤= , ùî ì³ñòèòü íåñê³í÷åííó ìíîæèíó òî÷îê. Ó öüîìó âèïàäêó íåêîðåêòíî ãîâîðèòè ïðî éìîâ³ðíîñò³ îêðåìîãî ñòàíó, òîìó ùî ïðè ¿õ íåñê³í÷åííî âåëèê³é ê³ëüêîñò³ âàãà êîæíîãî áóäå íàáëèæàòèñü äî íóëÿ. Òîìó ðîçïîä³ë éìîâ³ðíîñòåé äëÿ íåïå- ðåðâíî¿ âèïàäêîâî¿ âåëè÷èíè âèçíà÷àºòüñÿ ³íàêøå, í³æ ó äèñ- êðåòíîìó âèïàäêó; äëÿ ¿õ îïèñó âèêîðèñòîâóþòü ôóíêö³¿ ðîç- ïîä³ëó éìîâ³ðíîñòåé ³ ù³ëüíîñò³ ðîçïîä³ëó éìîâ³ðíîñòåé. Íåïåðåðâí³ ÁÌ âèêîðèñòîâóþòü äëÿ ìîäåëþâàííÿ ñòîõàñòè÷- íèõ ïðîöåñ³â ó ïðîñòîð³ ñòàí³â ç íåïåðåðâíèì ÷àñîì. 4. óáðèäí³ ÁÌ — ìåðåæ³, ÿê³ ì³ñòÿòü âóçëè ç äèñêðåòíèìè ³ íåïåðåðâíèìè çì³ííèìè. Ïðè âèêîðèñòàíí³ ÁÌ, ùî ì³ñòÿòü íåïåðåðâí³ ³ äèñêðåòí³ çì³íí³, ³ñíóº ðÿä îáìåæåíü: 1 — äèñêðåòí³ çì³íí³ íå ìîæóòü ìàòè íåïåðåðâíèõ áàòüê³â; 2 — íåïåðåðâí³ çì³íí³ ïîâèíí³ ìàòè íîðìàëüíèé çàêîí ðîçïîä³ëó, óìîâíèé íà çíà÷åííÿõ áàòüê³â; 3 — ðîçïîä³ë íåïåðåðâíî¿ çì³ííî¿ X ç äèñêðåòíèìè áàòü- êàìè Y òà íåïåðåðâíèìè áàòüêàìè Z º íîðìàëüíèì: ))(),,((),( yxzyxNzZyYXP σσµµµ=== , äå zyx µµµ ,, — ìàòåìàòè÷í³ ñïîä³âàííÿ, yx σσ , — äèñïåðñ³¿, 200 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ yx σσ , — ñåðåäíüîêâàäðàòè÷í³ â³äõèëåííÿ; xµ ë³í³éíî çàëå- æèòü â³ä íåïåðåðâíèõ áàòüê³â, à xσ âçàãàë³ íå çàëåæèòü â³ä íåïåðåðâíèõ áàòüê³â. Îäíàê, xµ òà xσ çàëåæàòü â³ä äèñêðåòíèõ áàòüê³â. Öå îáìåæåííÿ ãàðàíòóº ìîæëèâ³ñòü ôîðìóâàííÿ òî÷- íîãî âèñíîâêó. 3. Ìåòîäè îö³íþâàííÿ ñòðóêòóðè áàéºñ³âñüêèõ ìåðåæ Á³ëüø³ñòü ³ñíóþ÷èõ ìåòîä³â îö³íþâàííÿ (ïîáóäîâè) ñòðóê- òóðè ÁÌ ìîæíà óìîâíî ðîçä³ëèòè íà äâ³ êàòåãî𳿠[6, 7]: (1) íà îñíîâ³ îö³íî÷íèõ ôóíêö³é (search & scoring) òà (2) íà îñíîâ³ òåñòó íà óìîâíó íåçàëåæí³ñòü (dependency analysis). Á³ëüø³ñòü ³ç ³ñíóþ÷èõ ìåòîä³â çóñòð³÷àþòüñÿ ç òàêèìè ïðîáëåìàìè: 1. Íàÿâí³ñòü óïîðÿäêîâàíî¿ ìíîæèíè âåðøèí (ÓÌÂ). Ó á³ëüøîñò³ ìåòîä³â, îñîáëèâî ðîçðîáëåíèõ ðàí³øå, ââàæàºòüñÿ, ùî ÓÌ çàäàíà, àëå ïðè îáðîáö³ ðåàëüíèõ äàíèõ öå äóæå ÷àñòî íå â³äïîâ³äຠä³éñíîñò³. 2. Íèçüêà îá÷èñëþâàëüíà åôåêòèâí³ñòü. Äåÿê³ ñó÷àñí³ ìåòî- äè ïðàöþþòü áåç âèêîðèñòàííÿ ÓÌÂ, à çàì³ñòü íå¿ âèêîðèñ- òîâóþòü òåñò íà óìîâíó íåçàëåæí³ñòü (ÒÓÍ). Îäíàê â öüîìó âèïàäêó ÷àñòî áóâຠíåîáõ³äíî âèêîíàòè åêñïîíåíö³àëüíó ê³ëüê³ñòü òàêèõ òåñò³â, ùî ïðèçâîäèòü äî çìåíøåííÿ åôåêòèâ- íîñò³ ðîáîòè ìåòîäó ó çâ’ÿçêó ³ç çíà÷íèì çðîñòàííÿì îá’ºìó îá÷èñëåíü. 3. Ïðîáëåìà ïîáóäîâè âåëèêèõ ÁÌ. ²ñíóþòü ìåòîäè, çà äîïîìîãîþ ÿêèõ ìîæíà ïîáóäóâàòè ñòðóêòóðó ÁÌ ç äåê³ëüêî- ìà ñîòíÿìè âåðøèí, âèêîðèñòîâóþ÷è íàâ÷àëüíó âèá³ðêó ç ì³ëüéîí³â çàïèñ³â. Äî òàêèõ ìåòîä³â â³äíîñÿòüñÿ Tetrad II [30] òà SopLeq [17]. 3.1. Ìåòîäè íà îñíîâ³ îö³íî÷íèõ ôóíêö³é Äëÿ ïîáóäîâè ÁÌ ó âèãëÿä³ äåðåâà ×ó ³ Ë³ó (Chow and L³u) â 1968 ðîö³ çàïðîïîíóâàëè àëãîðèòì [8], ùî ãðóíòóºòüñÿ íà âèêîðèñòàíí³ çíà÷åíü âçàºìíî¿ ³íôîðìàö³¿ ì³æ âåðøèíàìè.  ÿêîñò³ ð³øåííÿ ìåòîä âèäຠñòðóêòóðó ³ç çíà÷åííÿì ñï³ëüíîãî ðîçïîä³ëó éìîâ³ðíîñòåé ìåðåæ³, ÿêå íàéá³ëüøå â³äïîâ³äຠíà- â÷àëüíèì äàíèì. Ïîáóäîâà ñòðóêòóðè ÁÌ çä³éñíþºòüñÿ çà )( 2NO 201 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè êðîê³â, äå N — ê³ëüê³ñòü âåðøèí ìåðåæ³. Îäíàê öåé àëãîðèòì íå ïðàöþº äëÿ áàãàòîçâ’ÿçàíèõ ÁÌ.  1988 ðîö³ гáàí ³ Ïåðë (Rebane and Pearl) çàïðîïîíóâàëè óäîñêîíàëåíèé ìîäèô³êîâàíèé àëãîðèòì ×ó ³ Ë³ó äëÿ ïîáóäî- âè ÁÌ ó âèãëÿä³ ïîë³-äåðåâà [24]. Êóïåð ³ Ãåðøêîâè÷ (Cooper and Herskov³ts) â 1990 ðîö³ ðîçðîáèëè àëãîðèòì Êóòàòî (Kutato) [16]. Íà åòàï³ ³í³ö³àë³çàö³¿ àëãîðèòìó ââàæàºòüñÿ, ùî âñ³ âåð- øèíè ÁÌ íåçàëåæí³; ï³ñëÿ öüîãî îá÷èñëþºòüñÿ åíòðîï³ÿ ö³º¿ ìåðåæ³. Ïîò³ì âèêîíóºòüñÿ äîäàâàííÿ äóã ì³æ âåðøèíàìè ó ìåðåæ³ òàêèì ÷èíîì, ùîá ì³í³ì³çóâàòè åíòðîï³þ ÁÌ. Äëÿ ðîáîòè àëãîðèòìó ïîòð³áíà íàÿâí³ñòü ÓÌÂ. Êóïåð ³ Ãåðøêîâè÷ â 1992 ðîö³ çàïðîïîíóâàëè øèðîêî â³äî- ìèé àëãîðèòì Ê2 [10], ÿêèé âèêîíóº ïîøóê ñòðóêòóðè ç ìàê- ñèìàëüíèì çíà÷åííÿì ôóíêö³¿ Êóïåðà-Ãåðøêîâè÷à (ÊÃ). Äëÿ ðîáîòè àëãîðèòìó ïîòð³áíà íàÿâí³ñòü ÓÌÂ.  1994 ðîö³ çàïðî- ïîíîâàíî àëãîðèòì HGC [15]. Öåé àëãîðèòì ñóòòºâî â³äð³çíÿºòü- ñÿ â³ä ³íøèõ (ùî ´ðóíòóþòüñÿ íà îö³íî÷íèõ ôóíêö³ÿõ) òèì, ùî óïåðøå, ñàìå â íüîìó, áóëè âèêîðèñòàí³ äâà íîâèõ ïîíÿòòÿ: (1) ïàðàìåòðè÷íà ìîäóëüí³ñòü (parametric modularity) òà (2) ð³âíîç- íà÷í³ñòü ïîä³é (event equivalence). ²íø³ äîñë³äíèêè äîñèòü äîâãî íå âèêîðèñòîâóâàëè îäíî÷àñíî ö³ ïîíÿòòÿ. Îäíî÷àñíå çàñòîñó- âàííÿ öèõ ïîíÿòü äîçâîëÿº îá’ºäíóâàòè ñòàòèñòè÷íó ³íôîðìà- ö³þ òà åêñïåðòí³ çíàííÿ äëÿ ïîáóäîâè ÁÌ. Âîíã ³ Êñ³àíã (Wong and Xiang) çàïðîïîíóâàëè â 1994 ðîö³ àëãîðèòì äëÿ ïîáóäîâè Ìàðêîâñüêèõ ìåðåæ ç âèêîðèñòàííÿì çíà÷åííÿ åíòðîﳿ òà I-map [37]. Ãðàô G éìîâ³ðí³ñíî¿ ìîäåë³ M íàçèâàþòü íåçàëåæíîþ êàðòîþ (independency map, ñêîðî- ÷åíî I-map), ÿêùî ç íåçàëåæíîñò³ âåðøèí ãðàôà G âèïëèâຠíåçàëåæí³ñòü ìîäåë³ M . Öåé àëãîðèòì äîçâîëÿº ïðåäñòàâèòè ïðîöåñ, ÿêèé ìîäåëþºòüñÿ, ó âèãëÿä³ I-map ³ ó âèïàäêó, êîëè ìåðåæà º îäíîçâ’ÿçíîþ, ãàðàíòîâàíî áóäóºòüñÿ ÁÌ. Ðàçîì ³ç ×ó (Chu) Êñ³àíã ðîçðîáèâ ó 1997 ðîö³ á³ëüø øâèäêîä³þ÷èé âàð³àíò çàïðîïîíîâàíîãî àëãîðèòìó [9]. Àëãîðèòì Ëåìà-Áàõóñà (Lam-Bacchus) [18], çàïðîïîíîâàíèé â 1996 ðîö³, âèêîíóº åâðèñòè÷íó ïîáóäîâó ñòðóêòóðè ìåðåæ³, âèêîðèñòîâóþ÷è çíà÷åííÿ âçàºìíî¿ ³íôîðìàö³¿ ì³æ âåðøèíà- ìè, à â ÿêîñò³ îö³íî÷íî¿ ôóíêö³¿ âèêîðèñòàºòüñÿ ôóíêö³ÿ îïèñó ì³í³ìàëüíî¿ äîâæèíè (minimum description length). 202 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ Àëãîðèòì Áåíåäèêòà (Bened³ct) [3], çàïðîïîíîâàíèé â 1996 ðîö³, âèêîíóº åâðèñòè÷íèé ïîøóê íà îñíîâ³ ÓÌÂ, àíàë³çóþ÷è óìîâí³ íåçàëåæíîñò³ â ñòðóêòóð³ ìåðåæ³ íà îñíîâ³ d-ðîçä³ëåí- íÿ, à â ÿêîñò³ ôóíêö³¿ îö³íêè âèêîðèñòàºòüñÿ åíòðîï³ÿ. CB àëãîðèòì [26] çàïðîïîíîâàíî â 1995 ðîö³. ³í âèêîðèñòîâóº ÒÓÍ ì³æ âåðøèíàìè ìåðåæ³, äëÿ ïîáóäîâè ÂÌÂ. Äëÿ ïîáó- äîâè ñòðóêòóðè ìåðåæ³ âèêîðèñòàºòüñÿ ôóíêö³ÿ ÊÃ. Àëãîðèòì Ôð³äìàíà-Ãîëäøì³äòà (Fr³edman-Goldszm³dt) [12] çàïðîïîíîâàíèé â 1996 ðîö³. Äëÿ ïîáóäîâè ìåðåæ³ âèêîðèñ- òàºòüñÿ àíàë³ç ¿¿ ëîêàëüíèõ ï³äñòðóêòóð, à â ÿêîñò³ îö³íî÷íî¿ ôóíêö³¿ âèêîðèñòàºòüñÿ ôóíêö³ÿ îïèñó ì³í³ìàëüíîþ äîâæè- íîþ (ÎÌÄ) òà îö³íêà Áàéºñà.  àëãîðèòì³ WKD [35], çàïðîïîíîâàíîìó â 1996 ðîö³, çà îö³íî÷íó ôóíêö³þ ïðè ïîáóäîâ³ ìåðåæ³ âèêîðèñòàíî ôóíêö³þ ïîâ³äîìëåííÿ ì³í³ìàëüíî¿ äîâæèíè (minimum message length), ÿêà ñõîæà íà ÎÌÄ. Àëãîðèòì Ñóçóê³ (Suzuk³), çàïðîïîíîâà- íèé ó 1999 ðîö³, ´ðóíòóºòüñÿ íà ìåòîä³ ã³ëîê òà ãðàíèöü äëÿ çàäàâàííÿ ïîñë³äîâíîñò³ ïîáóäîâè ñòðóêòóðè ìåðåæ³, à â ÿêîñò³ îö³íî÷íî¿ ôóíêö³¿ âèêîðèñòàºòüñÿ ÎÌÄ [32, 33]. Òàêîæ ³ñíóº ìíîæèíà ð³çíîìàí³òíèõ ïîãëèíàþ÷èõ àëãîðèòì³â (greedy algorithm), â ÿêèõ äëÿ îö³íþâàííÿ ìîæíà âèêîðèñòî- âóâàòè ôóíêö³¿ ð³çíîãî âèäó, íàïðèêëàä ìàêñèìàëüíî¿ ïðàâäî- ïîä³áíîñò³ àáî áàéºñ³âñüêèé ³íôîðìàö³éíèé êðèòåð³é [19]. 3.2. Ìåòîäè íà îñíîâ³ âèêîðèñòàííÿ òåñò³â íà óìîâíó íåçà- ëåæí³ñòü  1983 ðîö³ Âåðìóò ³ Ëîóðåíñ (Wermuth and Lauritzen) çàï- ðîïîíóâàëè àëãîðèòì äëÿ ïîáóäîâè ñòðóêòóðè ÁÌ, çàñòîñîâóþ- ÷è ÒÓÍ [36]. Öåé àëãîðèòì âèêîíóº ïîñë³äîâíèé ïåðåá³ð ÓÌÂ. Äëÿ êîæíî¿ ïàðè âåðøèí kX òà tX , òàêèõ, ùî kt XX < (òîáòî kX — öå ïðåäîê äëÿ tX ), âèêîíóºòüñÿ îá÷èñëåííÿ çíà÷åííÿ óìîâíî¿ íåçàëåæíîñò³. Öåé àëãîðèòì ãàðàíòóº ïîáóäîâó ÁÌ çà íàâ÷àëüíèìè äàíèìè, àëå ïðè öüîìó ïîòð³áíî îá÷èñëèòè âåëè- êó ê³ëüê³ñòü ÒÓÍ ì³æ âåðøèíàìè, ùî ìîæëèâî ëèøå ó âèïàä- êó, êîëè ìåðåæà ñêëàäàºòüñÿ ç íåâåëèêî¿ ê³ëüêîñò³ âåðøèí.  1988 ðîö³ Ïåðë (Pearl) çàïðîïîíóâàâ àëãîðèòì ïîáóäîâè ñê³í÷åííîãî ñïðÿìîâàíîãî àöèêë³÷íîãî ãðàôà (boundary DAG algorithm) [23]. Öåé àëãîðèòì áóäóº ÁÌ, ìàþ÷è ÓÌ òà ôóíêö³þ 203 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè ñï³ëüíîãî ðîçïîä³ëó (àáî äîñòàòíüî âåëèêó íàâ÷àëüíó âèá³ðêó äàíèõ). Ðàçîì ³ç áóäü-ÿêèì, íå äîñèòü ñêëàäíèì ìåòîäîì ïîøóêó, öåé àëãîðèòì ïîçáàâëåíèé ïðîáëåìè, ÿêà ïîëÿãຠó íåîáõ³äíîñò³ ðîçðàõóíêó âåëèêî¿ ê³ëüêîñò³ òåñò³â íà óìîâíó íåçàëåæí³ñòü, çàñòîñîâóþ÷è àëãîðèòì Âåðìóòà ³ Ëîóðåíñà [36]. Îäíàê íåîáõ³äí³ñòü îá÷èñëåííÿ âåëèêî¿ ê³ëüêîñò³ ÒÓÍ âèíè- êຠïðè çàñòîñóâàíí³ öüîãî àëãîðèòìó äëÿ ïîáóäîâè ìàðêîâ- ñüêèõ ìåðåæ, òîáòî ìåðåæ ³ç ïðèõîâàíèìè âóçëàìè.  1990 ðîö³ çàïðîïîíîâàíî SRA àëãîðèòì [31], ÿêèé º ìîäèô³êàö³ºþ àëãîðèòìó ñê³í÷åíîãî ñïðÿìîâàíîãî àöèêë³÷íî- ãî ãðàôà [23]. Öåé àëãîðèòì âèñóâຠìåíø æîðñòê³ âèìîãè äî óïîðÿäêóâàííÿ ìíîæèíè âåðøèí. Äëÿ ïîáóäîâè ÁÌ äîñòàò- íüî ìàòè ÷àñòêîâî óïîðÿäêîâàíó ìíîæèíó âåðøèí òà ùå äåÿê³ îáìåæåííÿ. Ïîáóäîâà ÁÌ âèêîíóºòüñÿ ïîñë³äîâíèì äîäàâàí- íÿì äóã ì³æ âåðøèíàìè ç âèêîðèñòàííÿì åâðèñòè÷íîãî ïîøó- êó. Àëå öåé àëãîðèòì âèêîíóº åêñïîíåíö³àëüíó ê³ëüê³ñòü ðîç- ðàõóíê³â òåñò³â íà óìîâíó íåçàëåæí³ñòü. Àëãîðèòì «Êîíñòðóêòîð» (constructor algorithm) çàïðîïîíîâà- íî ó 1990 ðîö³ [14]. ³í äóæå ñõîæèé íà àëãîðèòì ïîáóäîâè ñê³í÷åíîãî ñïðÿìîâàíîãî àöèêë³÷íîãî ãðàôà [23]. Çàì³ñòü ÁÌ òóò âèêîíóºòüñÿ ñïðîáà ïîáóäóâàòè ìàðêîâñüêó ìåðåæó. ³äì³íí³ñòü öüîãî ìåòîäó â³ä ³íøèõ, ÿê³ âèêîðèñòîâóþòü ÒÓÍ, ïîëÿãຠó òîìó, ùî â³í íå âèêîíóº íàäëèøêîâ³ òåñòè íà óìîâíó íåçà- ëåæí³ñòü ³ éîìó íå ïîòð³áíà óïîðÿäêîâàíà ìíîæèíà âåðøèí. Àëãîðèòìó SGS [28], çàïðîïîíîâàíîìó ó 1990 ðîö³, äëÿ ïîáóäî- âè ñòðóêòóðè íå ïîòð³áíà íàÿâí³ñòü ÓÌÂ, àëå çàì³ñòü íå¿ éîìó äîâîäèòüñÿ âèêîíóâàòè åêñïîíåíö³àëüíó ê³ëüê³ñòü òåñò³â íà óìîâíó íåçàëåæí³ñòü ì³æ âåðøèíàìè. ÐÑ àëãîðèòì, ðîçðîáëåíèé â 1991 ðîö³, ïðåäñòàâëÿº ñîáîþ óäîñêîíàëåíèé âàð³àíò SGS àëãîðèòìó [27]. Öåé àëãîðèòì ðîçðîáëåíî ñïåö³àëüíî äëÿ ïîáóäîâè ðîçð³äæåíèõ (sparse) ÁÌ, òîáòî äëÿ ìåðåæ ³ç íåâåëèêîþ ê³ëüê³ñòþ äóã ì³æ âåð- øèíàìè. Àëãîðèòì KDB, çàïðîïîíîâàíèé ó 1996 ðîö³ äëÿ âèçíà- ÷åííÿ íàïðÿìó ïîáóäîâè ìåðåæ³, âèêîðèñòîâóº çíà÷åííÿ âçàºìíèõ éìîâ³ðíîñòåé. Çà îö³íî÷íó ôóíêö³þ âèêîðèñòîâóºòüñÿ ôóíêö³îíàë, ùî ì³í³ì³çóº çíà÷åííÿ ìåðåæ³. Àëãîðèòì FBC (full Bayesian network), çàïðîïîíîâàíèé â 2006 ðîö³, ïðåäñòàâëÿº ñîáîþ óäîñêîíàëåíèé àëãîðèòì KDB, ÿêèé â ÿêîñò³ ôóíêö³¿ îö³íêè ïðè ïîáóäîâ³ ìåðåæ³ âèêîðèñòîâóº ôóíêö³þ ñóìàðíèõ çíà÷åíü Dz âåðøèí. 204 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ 3.3 ²íø³ ìåòîäè Íå çàâæäè ïîáóäîâàíà ñòðóêòóðà ÁÌ îäíîçíà÷íî â³äïîâ³äຠïðîöåñó, ÿêèé ìîäåëþºòüñÿ. ²íêîëè öå ïîâ’ÿçàíî ç íåïîâíî- òîþ äàíèõ ñïîñòåðåæåíü àáî íåäîñòàòíüîþ âèçíà÷åí³ñòþ ïðåä- ìåòíî¿ îáëàñò³. Çàì³ñòü ïîáóäîâè îäí³º¿ íàéêðàùî¿ ñòðóêòóðè ÁÌ äåÿê³ àëãîðèòìè â ÿêîñò³ ðåçóëüòàòó âèäàþòü ê³ëüêà ìåðå- æåâèõ ñòðóêòóð [5, 20]. ²íîä³ äîñë³äíèê ìîæå íå ìàòè âñ³º¿ ³íôîðìàö³¿ ïðî ïðîöåñ, ÿêèé ìîäåëþºòüñÿ. Òîáòî äåÿê³ çì³íí³, ÿê³ âïëèâàþòü íà ïðîöåñ, â³äñóòí³. ¯õ íàçèâàþòü ïðèõîâàíèìè çì³ííèìè (hidden variables) àáî ëàòåíòíèì çì³ííèìè (latent variables). ²ñíóþòü àëãîðèòìè åâðè- ñòè÷íîãî ïîøóêó, ÿê³ íàìàãàþòüñÿ âðàõîâóâàòè òàê³ ïðèõîâàí³ çì³íí³ ïðè ìîäåëþâàíí³ [29, 34]. Äëÿ âèïàäêó, êîëè íàâ÷àëüí³ äàí³ íå- ïîâí³ àáî ÷àñòèíà ç íèõ íåâ³ðíà (missing data), çàïðîïîíîâàíî äåê³ëüêà àëãîðèòì³â ñòèñíåííÿ ãðàíèöü (bound and collapse) òà ãðóïà àëãîðèòì³â, ÿê³ âèêîðèñòîâóþòü çíà÷åííÿ ìàêñèìàëüíîãî ìàòåìà- òè÷íîãî î÷³êóâàííÿ (expectation maximization, àáî ñêîðî÷åíî EM). Ìåòîä ñòèñêóâàííÿ ãðàíèöü [25] âèêîíóº ìîäåëþâàííÿ çà â³äñóòíîñò³ äàíèõ, ïðèïóñêàþ÷è, ùî éìîâ³ðí³ñòü â³äñóòí³õ äàíèõ ïðèéìຠçíà÷åííÿ â ³íòåðâàë³ â³ä 0 äî 1, òîáòî âèêîíóºòüñÿ àíàë³ç öüîãî ³íòåðâàëó íà â³äñóòí³ñòü äàíèõ çà íàÿâíîþ ³íôîð- ìàö³ºþ. ϳñëÿ öüîãî âèêîíóºòüñÿ ñòèñêóâàííÿ ãðàíèöü ³íòåð- âàëó â òî÷êó øëÿõîì âèêîðèñòàííÿ îïóêëî¿ êîìá³íàö³¿ ç òî÷îê åêñòðåìóì³â, âèêîðèñòîâóþ÷è ³íôîðìàö³þ ïðî íåïîâí³ äàí³. Àëãîðèòì ìàêñèì³çàö³¿ ìàòåìàòè÷íîãî î÷³êóâàííÿ çàïðîïî- íîâàíî ó 1977 ðîö³ â [11]. ³í ïðèçíà÷åíèé äëÿ ïîøóêó ëî- êàëüíèõ îïòèìàëüíèõ îö³íîê ïàðàìåòð³â çà ìåòîäîì ìàêñè- ìàëüíî¿ ïðàâäîïîä³áíîñò³. Ãîëîâíà ³äåÿ àëãîðèòìó ïîëÿãຠó òîìó, ùî çà íàÿâíîñò³ çíà÷åíü óñ³õ âóçë³â, íàâ÷àííÿ (íà êðîö³ M ) áóäå ïðîñòèì, îñê³ëüêè íàÿâíà âñÿ íåîáõ³äíà ³íôîðìàö³ÿ. Òîìó íà êðîö³ E âèêîíóºòüñÿ îá÷èñëåííÿ çíà÷åííÿ ìàòåìà- òè÷íîãî î÷³êóâàííÿ ïðàâäîïîä³áíîñò³ (expectation of likelihood), âêëþ÷àþ÷è ëàòåíòí³ çì³íí³ òàê, í³áè âîíè ñïîñòåð³ãàëèñü. Íà êðîö³ M ðîáèòüñÿ îá÷èñëåííÿ çíà÷åííÿ ìàêñèìàëüíî¿ ïðàâ- äîïîä³áíîñò³ ïàðàìåòð³â, âèêîðèñòîâóþ÷è ìàêñèì³çàö³þ çíà- ÷åíü î÷³êóâàíî¿ ïðàâäîïîä³áíîñò³, îòðèìàíèõ íà êðîö³ E . Äàë³ àëãîðèòì çíîâó âèêîíóº êðîê E ç âèêîðèñòàííÿì ïàðàìåòð³â, îòðèìàíèõ íà êðîö³ M , ³ òàê äàë³. 205 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè Íà îñíîâ³ àëãîðèòìó ìàêñèì³çàö³¿ ìàòåìàòè÷íîãî î÷³êóâàí- íÿ ðîçðîáëåíî ñåð³þ ïîä³áíèõ àëãîðèòì³â [13, 38]. Òàê, íà- ïðèêëàä, ñòðóêòóðíèé àëãîðèòì ìàêñèì³çàö³¿ ìàòåìàòè÷íîãî î÷³êóâàííÿ ïîºäíóº ó ñîá³ ñòàíäàðòíèé àëãîðèòì ìàêñèì³çàö³¿ ìàòåìàòè÷íîãî î÷³êóâàííÿ, ùî îïòèì³çóº ïàðàìåòðè, òà àëãî- ðèòì ñòðóêòóðíîãî ïîøóêó ìîäåë³ â³äáîðó. Öåé àëãîðèòì áóäóº ìåðåæ³, ´ðóíòóþ÷èñü íà øòðàôíèõ ³ìîâ³ðí³ñíèõ çíà÷åííÿõ, ÿê³ âêëþ÷àþòü çíà÷åííÿ, îòðèìàí³ çà äîïîìîãîþ áàéºñ³âñüêîãî ³íôîðìàö³éíîãî êðèòåð³þ, ïðèíöèïó ì³í³ìàëüíî¿ äîâæèíè îïèñó, à òàêîæ çíà÷åííÿ ³íøèõ êðèòåð³¿â. Ïðèêëàä çàñòîñóâàííÿ áàéºñ³âñüêèõ ìåðåæ äëÿ ñêîðèíãîâîãî àíàë³çó ñòàíó ïîçè÷àëüíèêà êðåäèòó ó áàíê³âñüê³é óñòàíîâ³. Íà ðèñ. 5 ïîêàçàíà ñêîðèíãîâà ìîäåëü ó âèãëÿä³ ÁÌ, ïîáóäîâàíà çà ³òåðàö³éíèì åâðèñòè÷íèì ìåòîäîì, ÿêèé ´ðóíòóºòüñÿ íà âèêîðèñòàíí³ îö³íêè âçàºìíî¿ ³íôîðìàö³¿ ì³æ âåðøèíàìè òà ôóíêö³¿ îïèñó ì³í³ìàëüíîþ äîâæèíîþ. Ðèñ. 5. Ñèñòåìà êðåäèòíîãî ñêîðèíãó ó âèãëÿä³ ÁÌ. Ó òàáë. 1 íàâåäåíî äåñÿòü çìîäåëüîâàíèõ ñèòóàö³é ³ç âèêî- ðèñòàííÿì ìåòîäó ïîáóäîâè òî÷íîãî ³ìîâ³ðí³ñíîãî âèñíîâêó â ÁÌ çà íàâ÷àëüíèìè äàíèìè. Ïîáóäîâàí³é ñêîðèíãîâ³é ìîäåë³ ó âèãëÿä³ ÁÌ (ðèñ. 5) â³äïî- â³äàþòü òàê³ ñòàòèñòè÷í³ õàðàêòåðèñòèêè: ïîõèáêà ïåðøîãî ðîäó — 115 (çà ê³ëüê³ñòþ â³äïîâ³äíèõ âèïàäê³â); ïîõèáêà äðóãîãî ðîäó 206 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ Номер ситуа- ції Інстанційовані вершини (апріорна інформація, стосовно клієнта) Ймовірність того, що клієнт поверне кредит 1 Стать = «Чоловік» 92,08% 2 Стать = «Жінка» 97,55% 3 Поручитель = «Так» 99,06% 4 Поручитель = «Ні» 87,98% 5 Вік < 32 років та Сімейний стан = «Самотній» та Сума кредиту > 5000 76,92% 6 Тип трудозайнятості =«Працівник банку» та Сімейний стан = «Одружений» 94,66% 7 Освіта = «Вища» та Кількість дітей = «один» та Чоловік (дружина) працює = «Так» 97,39% 8 Освіта = «Середня» та Кількість дітей = «немає» та Чоловік (дружина) працює = «Ні» та Поручитель = «Ні» та Сума кредиту > 2500 69,78% 9 Стать = «Чоловік» та Сімейний стан = «Удівець» та Освіта = «Середня спеціальна» 78,95% 10 Стать = « Жінка» та Сімейний стан = «Удівець» та Освіта = «Середня спеціальна» 98,81% — 157; çàãàëüíà ïîõèáêà — 272; çàãàëüíà òî÷í³ñòü ìîäåë³ — 0,918; ïîõèáêà êëàñèô³êàö³¿ — 15%. Àíàë³ç ðåçóëüòàò³â. Ó òàáëèöÿõ 2 ³ 3 íàâåäåíî ñòàòèñòè÷í³ ³ ïðîãíîçí³ õàðàêòåðèñòèêè, îòðèìàí³ ïðè âèêîðèñòàíí³ â³äïî- â³äíèõ ìåòîä³â ²ÀÄ äëÿ ïîáóäîâè ñêîðèíãîâèõ ìîäåëåé îö³íþ- âàííÿ êðåäèòîñïðîìîæíîñò³ ô³çè÷íèõ îñ³á. Ïðè êëàñèô³êàö³¿ ðîçãëÿäàëîñÿ çíà÷åííÿ ïîðîãó â 90%, òîáòî ÿêùî éìîâ³ðí³ñòü ïîâåðíåííÿ êðåäèòó íèæ÷å 90%, òî ê볺íò êëàñèô³êóºòüñÿ ÿê íåêðåäèòîñïðîìîæíèé. Íàéêðàù³ ðåçóëüòàòè îòðèìàíî çà ìåòîäîì äåðåâ ð³øåíü CHA²D òà êëàñòåðíîãî àíàë³çó k-ñåðåäí³õ. Äëÿ öèõ ìåòîä³â â³äñîòîê ïîõèáîê êëàñèô³êàö³¿ äîð³âíþº 10, à öå îçíà÷àº, ùî ³ç 100 âèäàíèõ êðåäèò³â 10 áóëè êëàñèô³êîâàí³ íåâ³ðíî. Á³ëüø³ñòü ñêîðèíãîâèõ ñèñòåì, îòðèìàíèõ çà ³íøèìè ìåòîäà- ìè ²ÀÄ, äàëè ïîõèáêó êëàñèô³êàö³¿ 15—20%. Çà êðèòåð³ºì çàãàëüíî¿ òî÷íîñò³ ìîäåë³ íàéêðàùèé ðåçóëüòàò ³ç çíà÷åííÿì 0,949 îòðèìàíî çà ìîäåëëþ ëîã³ò, à ñåðåä ìåòîä³â êëàñòåðíîãî àíàë³çó — áëèæíüîãî ñóñ³äà ³ç ïîïåðåäíüîþ ôàêòîðèçàö³ºþ. Òàáëèöÿ 1 — Äàí³ ñòîñîâíî äåñÿòè çìîäåëüîâàíèõ ñèòóàö³é 207 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè Òàáëèöÿ 2 Òàáëèöÿ 3 Кількість нейронів у шарі Назва алгоритму побудови ШНМ Вхідних Скритих Вихідних Точність моделі Процент похибок при класифікації Back propagation 9 3 1 0,9 20% Back propagation 9 5 1 0,91 15% Resilient propagation 9 3 1 0,91 15% Resilient propagation 9 5 1 0,9 15% Похибка Назва методу 1-го роду 2-го роду Загаль- на Точність моделі Процент похибок при класифікації За умови 90% ймовірності повернення кредиту CHAID 76 275 351 0.895 10% CART 68 299 367 0.891 20% QUEST 47 546 593 0.823 15% Найкращі ієрархічні методи кластеризації з використанням квадратичної міри Евкліда Зважений центроїдний 174 93 267 0.92 15% Варда 146 296 442 0.868 15% Найкращі ієрархічні методи кластеризації із використанням коефіцієнта Пірсона Зв'язок між групами 177 26 203 0.939 20% Зв'язок всередині груп 171 370 541 0.838 20% Віддалених сусідів 177 71 248 0.926 20% Медіан 177 26 203 0.939 15% Неієрархічні методи кластеризації К-середніх для ітерацій та класифікації 116 564 680 0.797 10% К-середніх тільки для класифікації 172 119 291 0.914 15% Двокроковий 78 1245 1323 0.605 45% Найкращий ієрархічний метод з попередньою факторизацією Ближнього сусіда 178 1 179 0.947 15% Лінійна ймовірнісна модель 175 0 175 0,947 15% Логіт модель 163 6 169 0,949 15% Пробіт модель 168 2 170 0,948 15% Байєсівська мережа 115 157 272 0,918 15% 208 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ Âèñíîâêè Âèêîíàíî îãëÿä ìåòîä³â ïîáóäîâè (íàâ÷àííÿ) ñòðóêòóðè ìå- ðåæ Áàéºñà. Ïîêàçàíî, ùî íà ñüîãîäí³ ³ñíóº ìíîæèíà ìåòîä³â ñòðóêòóðíîãî íàâ÷àííÿ ÌÁ òà êðèòåð³¿â îïòèì³çàö³¿, ÿê³ ìîæíà ç óñï³õîì âèêîðèñòàòè ïðè ¿õ ïîáóäîâ³. Íàÿâí³ñòü âåëèêî¿ ê³ëüêîñò³ ìåòîä³â ôîðìóâàííÿ ñòðóêòóðè ÌÁ ñâ³ä÷èòü ïðî òå, ùî ³ñíóþòü ïðîáëåìè ñòîñîâíî ðîçâ’ÿçàííÿ ö³º¿ çàäà÷³, ÿê³ íåìîæëèâî ðîç- â’ÿçàòè çà äîïîìîãîþ îäíîãî-äâîõ ìåòîä³â. Öå ïðîáëåìè, ïîâ’ÿ- çàí³ ³ç âèñîêîþ ðîçì³ðí³ñòþ çàäà÷, íàÿâí³ñòþ çì³ííèõ ð³çíèõ òèï³â, íåÿê³ñíèìè äàíèìè òà âèìîãàìè äî ÿêîñò³ ðåçóëüòàòó — ³ìîâ³ðí³ñíîãî âèñíîâêó. Òîìó âèá³ð ìåòîäó íàâ÷àííÿ ñòðóêòóðè ìåðåæ³ ïîâèíåí ´ðóíòóâàòèñü íà äîêëàäíîìó ïîãëèáëåíîìó àíàë³ç³ çàäà÷³, ÿêà ðîçâ’ÿçóºòüñÿ çà äîïîìîãîþ ìåðåæ³, òà ìîæëèâîñò³ îòðèìàííÿ äîñòîâ³ðíèõ åêñïåðòíèõ ³ ñòàòèñòè÷íèõ äàíèõ. Âðàõî- âóþ÷è ìîæëèâó íåîäíîçíà÷í³ñòü îòðèìàíîãî ðîçâ’ÿçêó, ñòðóêòó- ðó ìåðåæ³ íåîáõ³äíî áóäóâàòè çà äâîìà-òðüîìà àëüòåðíàòèâíèìè ìåòîäàìè ³ âèáðàòè ïîò³ì êðàùèé ðîçâ’ÿçîê. Ñåðåä ìåòîä³â ²ÀÄ, âèêîðèñòàíèõ äëÿ ïîáóäîâè ñêîðèíãîâèõ ìîäåëåé, íàéêðàù³ ðåçóëüòàòè îòðèìàí³ çà äîïîìîãîþ äåðåâà ð³øåíü ìåòîä Chaid, ìåòîäó êëàñòåðíîãî àíàë³çó k-ñåðåäí³õ òà ÁÌ. Òàêèì ÷èíîì ï³äòâåðäæåíà âèñîêà åôåêòèâí³ñòü âèêîðèñòàííÿ ìåòîä³â ²ÀÄ äëÿ àíàë³çó òà ìîäåëþâàííÿ åêîíîìåòðè÷íèõ ïðîöåñ³â ÿê íåîáõ³äíèé êðîê ðîçâ’ÿçàííÿ âàæëèâî¿ ïðîáëåìè — çàáåçïå÷åííÿ ñòàá³ëü- íîñò³ òà ô³íàíñîâî¿ áåçïåêè áàíê³âñüêî¿ ñèñòåìè Óêðà¿íè. Ó ìàéáóòí³õ äîñë³äæåííÿõ äîö³ëüíî àâòîìàòèçóâàòè ïðîöåñ ïîáóäîâè ñòðóêòóðè ìåðåæ³ çà äåÿêîþ ìíîæèíîþ àëüòåðíà- òèâíèõ ìåòîä³â çà óìîâè ðîçáèòòÿ çàãàëüíî¿ âèá³ðêè äàíèõ íà íàâ÷àëüíó òà ïåðåâ³ðî÷íó. Ïðè öüîìó íåîáõ³äíî çàáåçïå÷èòè âèá³ð êðàùî¿ ³ç ñòðóêòóð çà êðèòåð³ÿìè ñòðóêòóðíî¿ ð³çíèö³ àáî ïåðåõðåñíî¿ åíòðîﳿ. Öå äàñòü ìîæëèâ³ñòü óíèêíóòè ìîæ- ëèâî¿ íåîäíîçíà÷íîñò³ âèáîðó. * * * 1. Ìåòîäû è ìîäåëè àíàëèçà äàííûõ OLAP è Data Mining / À.À. Áàðñåãÿí, Ì.Ñ. Êóïðèÿíîâ, Â.Â. Ñòåïàíåíêî, È.È. Õîëîä. — ÑÏá: ÁÂÕ-Ïåòåðáóðã, 2004. — 336 ñ. 209 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè 2. ×óáóêîâà È.À. Data Mining / È.À. ×óáóêîâà. — Ì.: Áèíîì ËÁÇ, 2008. — 384 ñ. 3. Acid S. and Campos L. Benedict: an algorithm for learning probabilistic belief networks / S. Acid and L. Campos // Proceedings of the sixth international conference IPMU’96, Granada, Spain. — 1996. — P. 979—984. 4. Buntine W. L. A Guide to the literature on learning probabilistic networks from data / W. L. Buntine // IEEE Transactions on knowledge and data engineering. — Piscataway: IEEE Educational Activities Department, 1996. — Vol. 8, ¹ 2. — P. 195—210. 5. Buntine W. Operations for learning with graphical models / W. Buntine // Journal of artificial intelligence research (JAIR). — Menlo Park: AAAI Press, 1994. — 2. — P. 159. 6. Cheng J. Learning belief networks from data: an information theory based approach / J. Cheng, D.A. Bell and W. Liu // Proceedings of the sixth international conference on information and knowledge management (CIKM 1997), Las Vegas (Nevada), November 10—14. — 1997. — P. 325—331. 7. Learning Bayesian networks from data: an information-theory based approach / J. Cheng, R. Greiner, J. Kelly, D.A. Bell and W. Liu // The artificial intelligence journal (AIJ). — 2002. — 137. — P. 43—90. 8. Chow C.K. Approximating discrete probability distributions with dependence trees / C.K. Chow, C.N. Liu // IEE Transactions on information theory, May 1968. — Vol. IT-14, ¹3. — P. 462—467. 9. Chu T. and Xiang Y. Exploring parallelism in learning belief networks / T. Chu and Y. Xiang // Proceedings of the thirteenth international conference on Uncertainty in Artificial Intelligence (UAI’97), Providence, Rhode Island, USA, 1—3 August, 1997. — SF.: Morgan Kaufmann, 1997. — P. 90—98. 10. Cooper G. A Bayesian method for the induction of probabilistic networks from data / G. Cooper, E. Herskovits // Machine Learning, 1992. — 9. — P. 309—347. 11. Dempster A.P. Maximum likelihood from incomplete data via the EM algorithm / A.P. Dempster, N.M. Laird and D.B. Rubin // Journal of the Royal Statistical Society. — 1977. — Vol. 39, ¹ 1. — P. 1—38. 12. Friedman N. Learning Bayesian networks with local structure / N. Friedman and M. Goldszmidt // Proceedings of the twelfth 210 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ international conference on Uncertainty in Artificial Intelligence (UAI’96), Portland, Oregon, USA, 1—4 August, 1996. — SF.: Morgan Kaufmann, 1996. — P. 252—262. 13. Friedman N. The Bayesian structural EM algorithm / N. Friedman // Fourteenth conference on Uncertainty in Artificial Intelligence (UAI’98), Madison, Wisconsin, USA, 24—26 July, 1998. — SF.: Morgan Kaufmann, 1998. — P. 129—138. 14. Fung R.M. Constructor: a system for the induction of probabilistic models / R.M. Fung, S.L. Crawford // Proceedings of the seventh national conference on artificial intelligence (AAAI-90). — 1990. — P. 762—769. 15.Heckerman D. Learning Bayesian networks: the combination of knowledge and statistical data / D. Heckerman, D. Geiger and D. Chickering // Technical report MSR-TR-94-09, Microsoft Research, March 1994. — 53 p. 16. Kutato: an entropy-driven system for construction of probabilistic expert systems from databases / E. Herskovits and G. Cooper // Proceedings of the sixth international conference on Uncertainty in Artificial Intelligence (UAI’90), Cambridge, Massachusetts, USA, 27—29 July, — NY.: Elsevier science, 1991. — P. 54—62. 17. Jouffe L. and Munteanu P. New search strategies for learning Bayesian networks / L. Jouffe and P. Munteanu // Proceedings of tenth international symposium on applied stochastic models and data analysis (ASMDA 2001). — Compiegne (France). 12—15 June 2001. — Vol. 2 — P. 591—596. 18. Lam W. Learning Bayesian belief networks: an approach based on the MDL principle / W. Lam and F. Bacchus // Computational Intelligence, July 1994. — Vol. 10, ¹ 4. — P. 269—293. 19. Liu R. F. Learning on Bayesian networks / R. F. Liu and R. Soetjipto // Report for class project in course MIT 6.825: techniques in artificial intelligence, the MIT computer science and artificial intelligence laboratory, Massachusetts Institute of Technology, Cambridge, December 2004. — 39 p. 20. Madigan, D. Model selection and accounting for model uncertainty in graphical models using Occam’s window / D. Madigan and A. Raftery // Journal of the American statistical association (JASA). — 1994. — 89. P. 1535—1546. 211 ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè 21. A brief introduction to graphical models and Bayesian networks / K. Murphy // Technical report 2001-5-10, department of computer science, University of British Columbia, Canada, May 2001. — 19 p. 22. Murphy K.P. Dynamic Bayesian networks: representation, inference and learning / K.P. Murphy // A PhD dissertation, University of California, Berkeley. — 2002. — 225 p. 23. Pearl J. Probabilistic reasoning in intelligent systems: networks of plausible inference / J. Pearl. — SF.: Morgan Kaufmann, September 1988. — 552 p. 24. Rebane G. The recovery of causal poly-trees from statistical data / G. Rebane // International journal of approximate reasoning, July 1988. — Vol. 2, ¹ 3. — P. 175—182 25. Sebastiani P. Bayesian inference with missing data using bound and collapse / P. Sebastiani and M. Ramoni // Journal of Computational and Graphical Statistics, December 2000. — Vol. 9, ¹ 4. — P. 779—800. 26. Singh M. Construction of Bayesian network structures from data: a brief survey and an efficient algorithm / M. Singh and M. Valtorta // International journal of approximate reasoning, 1995. —12. — P. 111—131. 27. Spirtes P. An algorithm for fast recovery of sparse causal graphs / P. Spirtes, C. Glymour and R. Scheines // Social science computer review (SSCORE). — 1991. — 9. — P. 62—72. 28. Spirtes P., Glymour C. and Scheines R. Causality from probability / P. Spirtes, C. Glymour and R. Scheines // Proceedings of advanced computing for the social sciences, Williamsburgh. — 1990. — P. 107—121. 29.Spirtes P. Heuristic greedy search algorithms for latent variable models / P. Spirtes, T. Richardson and C. Meek // Proceedings of artificial intelligence and sta ñòðóêòóðíèé àëãîðèòì ìàêñèì³çàö³¿ ìàòåìàòè÷íîãî î÷³êóâàííÿ tistics (AI & Statistics 1997), Fort Lauderdale (Florida). — 1997. — P. 481—488. 30. Spirtes, P. Causation, prediction and search / P. Spirtes, C. Glymour and R. Scheines // Adaptive computation and machine learning, MIT press, January 2001. — 565 p. 31. Srinivas S. Automated construction of sparse Bayesian networks from unstructured probabilistic models and domain information / S. Srinivas, S. Russell and A. Agogino // Proceedings of the fifth 212 Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ annual conference on Uncertainty in Artificial Intelligence (UAI’90), Cambridge, Massachusetts, USA, 27—29 July, 1990. — NY.: Elsevier science, 1991. — P. 295—308. 32. Suzuki J. Learning Bayesian belief networks based on the MDL principle: an efficient algorithm using the branch and bound technique / J. Suzuki // IEICE Transaction on information and systems, February 1999. — P. 356—367. 33. Suzuki J. Learning Bayesian belief networks based on the minimum description length principle: basic properties / J. Suzuki // IEICE Transaction. on fundamentals, September 1999. — Vol. E82-A, ¹ 9. — 9 p. 34. Verma T. Equivalence and synthesis of causal models / T. Verma and J. Pearl // Proceedings of the sixth international conference on Uncertainty in Artificial Intelligence (UAI’90), Cambridge, Massachusetts, USA, 27—29 July, 1990. — NY.: Elsevier science, 1991. — P. 255—270. 35. Wallace C. Causal discovery via MML / C. Wallace, K. Korb and H. Dai // Proceedings of the thirteenth international conference on machine learning (ICML’96), Bari, Italy. — SF.: Morgan Kaufmann, 1996. — P. 516—524. 36. Wermuth N. Graphical and recursive models for contingency tables / N. Wermuth and S. Lauritzen // Biometrika, December 1983. — Vol. 70, ¹3. — P. 537—552. 37. Wong, S. Construction of a Markov network from data for probabilistic inference / S. Wong and Y. Xiang// Third International workshop on rough sets and soft computing (RSSC’94), San Jose (California). — 1994. — P. 562—569. 38. Zhang Z. Surrogate maximization (minimization) algorithms for AdaBoost and the logistic regression model / Z. Zhang, J. Kwok and D. Yeung // Proceedings of the twenty-first international conference on machine learning (ICML 2004). — 2004. — 117 p. 39. Zweig G.G. Speech recognition with dynamic Bayesian networks / G.G. Zweig // Proceedings of the fifteenth conference on artificial intelligence, Madison (Wisconsin US). — 1998. — P. 173—180. Îòðèìàíî: 7.06.2011 ð.