Застосування байєсівських мереж в системах аналізу даних
Запропоновано огляд методів побудови (навчання) структури мереж Байєса. Показано, що на сьогодні існує множина методів структурного навчання МБ та критеріїв оптимізації, які можна використати при їх побудові. Тому вибір методу навчання структури мережі повинен ґрунтуватись на докладному поглибленому...
Gespeichert in:
| Datum: | 2011 |
|---|---|
| Hauptverfasser: | , , |
| Format: | Artikel |
| Sprache: | Ukrainian |
| Veröffentlicht: |
Інститут телекомунікацій і глобального інформаційного простору НАН України
2011
|
| Schriftenreihe: | Екологічна безпека та природокористування |
| Schlagworte: | |
| Online Zugang: | https://nasplib.isofts.kiev.ua/handle/123456789/58211 |
| Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Zitieren: | Застосування байєсівських мереж в системах аналізу даних / П.І. Бідюк, О.М. Трофимчук, О.І. Савенков // Екологічна безпека та природокористування: Зб. наук. пр. — К., 2011. — Вип. 8. — С. 191-212. — Бібліогр.: 39 назв. — укр. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| id |
nasplib_isofts_kiev_ua-123456789-58211 |
|---|---|
| record_format |
dspace |
| spelling |
nasplib_isofts_kiev_ua-123456789-582112025-02-09T14:47:59Z Застосування байєсівських мереж в системах аналізу даних Бідюк, П.І. Трофимчук, О.М. Савенков, О.І. Науково-технологічна безпека та інтелектуальні ресурси Запропоновано огляд методів побудови (навчання) структури мереж Байєса. Показано, що на сьогодні існує множина методів структурного навчання МБ та критеріїв оптимізації, які можна використати при їх побудові. Тому вибір методу навчання структури мережі повинен ґрунтуватись на докладному поглибленому аналізі задачі, яка розв’язується за допомогою мережі, та можливості отримання достовірних експертних і статистичних даних. Наведено практичний приклад застосування БМ. Предложен обзор методов построения (обучения) структуры сетей Байеса (СБ). Показано, что на сегодня существует множество методов структурного обучения СБ и критериев оптимизации, которые можно использовать при их построении. Поэтому выбор метода обучения структуры сети должен базироваться на углубленном анализе задачи, которая решается с помощью сети, и возможности получения достоверных экспертных и статистических данных. Приведен практический пример использования БС. A review is proposed of structural learning for Bayesian networks (BN). It is shown that today exists a wide set of structural learning methods for BN as well as optimization criteria that could be used for learning. That is why the selection of a learning method should be based on profound analysis of the problem to be solved by BN and the possibility of obtaining truthful expert and statistical data. A practical example of Bayesian network application is given. 2011 Article Застосування байєсівських мереж в системах аналізу даних / П.І. Бідюк, О.М. Трофимчук, О.І. Савенков // Екологічна безпека та природокористування: Зб. наук. пр. — К., 2011. — Вип. 8. — С. 191-212. — Бібліогр.: 39 назв. — укр. XXXX-0062 https://nasplib.isofts.kiev.ua/handle/123456789/58211 519.226 uk Екологічна безпека та природокористування application/pdf Інститут телекомунікацій і глобального інформаційного простору НАН України |
| institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| collection |
DSpace DC |
| language |
Ukrainian |
| topic |
Науково-технологічна безпека та інтелектуальні ресурси Науково-технологічна безпека та інтелектуальні ресурси |
| spellingShingle |
Науково-технологічна безпека та інтелектуальні ресурси Науково-технологічна безпека та інтелектуальні ресурси Бідюк, П.І. Трофимчук, О.М. Савенков, О.І. Застосування байєсівських мереж в системах аналізу даних Екологічна безпека та природокористування |
| description |
Запропоновано огляд методів побудови (навчання) структури мереж Байєса. Показано, що на сьогодні існує множина методів структурного навчання МБ та критеріїв оптимізації, які можна використати при їх побудові. Тому вибір методу навчання структури мережі повинен ґрунтуватись на докладному поглибленому аналізі задачі, яка розв’язується за допомогою мережі, та можливості отримання достовірних експертних і статистичних даних. Наведено практичний приклад застосування БМ. |
| format |
Article |
| author |
Бідюк, П.І. Трофимчук, О.М. Савенков, О.І. |
| author_facet |
Бідюк, П.І. Трофимчук, О.М. Савенков, О.І. |
| author_sort |
Бідюк, П.І. |
| title |
Застосування байєсівських мереж в системах аналізу даних |
| title_short |
Застосування байєсівських мереж в системах аналізу даних |
| title_full |
Застосування байєсівських мереж в системах аналізу даних |
| title_fullStr |
Застосування байєсівських мереж в системах аналізу даних |
| title_full_unstemmed |
Застосування байєсівських мереж в системах аналізу даних |
| title_sort |
застосування байєсівських мереж в системах аналізу даних |
| publisher |
Інститут телекомунікацій і глобального інформаційного простору НАН України |
| publishDate |
2011 |
| topic_facet |
Науково-технологічна безпека та інтелектуальні ресурси |
| url |
https://nasplib.isofts.kiev.ua/handle/123456789/58211 |
| citation_txt |
Застосування байєсівських мереж в системах аналізу даних / П.І. Бідюк, О.М. Трофимчук, О.І. Савенков // Екологічна безпека та природокористування: Зб. наук. пр. — К., 2011. — Вип. 8. — С. 191-212. — Бібліогр.: 39 назв. — укр. |
| series |
Екологічна безпека та природокористування |
| work_keys_str_mv |
AT bídûkpí zastosuvannâbajêsívsʹkihmerežvsistemahanalízudanih AT trofimčukom zastosuvannâbajêsívsʹkihmerežvsistemahanalízudanih AT savenkovoí zastosuvannâbajêsívsʹkihmerežvsistemahanalízudanih |
| first_indexed |
2025-11-27T01:11:38Z |
| last_indexed |
2025-11-27T01:11:38Z |
| _version_ |
1849903965971415040 |
| fulltext |
191
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
УДК 519.226
ЗАСТОСУВАННЯ БАЙЄСІВСЬКИХ МЕРЕЖ
В СИСТЕМАХ АНАЛІЗУ ДАНИХ
П.І. Бідюк, д-р техн. наук, проф.
(Інститут прикладного системного аналізу
НУТУ «КПІ»);
О.М. Трофимчук, д-р техн. наук, проф.
(Інститут телекомунікацій і глобального
інформаційного простору)
О.І. Савенков, д-р. техн. наук, проф.
(Національна академія управління).
Запропоновано огляд методів побудови (навчання) структури мереж
Байєса. Показано, що на сьогодні існує множина методів структурного
навчання МБ та критеріїв оптимізації, які можна використати при їх
побудові. Тому вибір методу навчання структури мережі повинен ґрунту-
ватись на докладному поглибленому аналізі задачі, яка розв’язується за
допомогою мережі, та можливості отримання достовірних експертних і
статистичних даних. Наведено практичний приклад застосування БМ.
Предложен обзор методов построения (обучения) структуры сетей
Байеса (СБ). Показано, что на сегодня существует множество методов
структурного обучения СБ и критериев оптимизации, которые можно
использовать при их построении. Поэтому выбор метода обучения
структуры сети должен базироваться на углубленном анализе задачи,
которая решается с помощью сети, и возможности получения досто-
верных экспертных и статистических данных. Приведен практический
пример использования БС.
A review is proposed of structural learning for Bayesian networks (BN). It is
shown that today exists a wide set of structural learning methods for BN as well
as optimization criteria that could be used for learning. That is why the selection
of a learning method should be based on profound analysis of the problem to be
solved by BN and the possibility of obtaining truthful expert and statistical data.
A practical example of Bayesian network application is given.
П.І. Бідюк, О.М. Трофимчук, О.І. Савенков, 2011
192
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
1. Ñó÷àñí³ ìåòîäè àíàë³çó äàíèõ
Ç êîæíèì ðîêîì ñòð³ìêî çá³ëüøóþòüñÿ îá’ºìè ³íôîðìàö³¿
â ð³çíèõ ãàëóçÿõ; ³íôîðìàö³éí³ ïîòîêè ôîðìóþòüñÿ ó íàóö³,
á³çíåñ³, òåõíîëîã³÷íèõ ³ òåõí³÷íèõ ñèñòåìàõ. Ñóòòºâî çðîñòàþòü
ìàñèâè ³íôîðìàö³¿, íåîáõ³äíî¿ äëÿ çíàõîäæåííÿ êîðåêòíèõ ðîç-
â’ÿçê³â áàãàòüîõ çàäà÷. Àíàë³òèêè ðîçâ’ÿçóþòü çàäà÷³, âèõîäÿ÷è
³ç ñâî¿õ çíàíü ³ äîñâ³äó, àëå çíàííÿ ì³ñòÿòüñÿ òàêîæ ó íàêîïè-
÷åíèõ äàíèõ, ÿê³ íåîáõ³äíî àíàë³çóâàòè. Òàê³ çíàííÿ ÷àñòî íà-
çèâàþòü «ïðèõîâàíèìè», îñê³ëüêè âîíè âèìàãàþòü äëÿ çáåð³-
ãàííÿ ã³ãàáàéò³â ³ òåðàáàéò³â ³íôîðìàö³¿, ÿê³ ëþäèíà íå â çìîç³
äîñë³äèòè ñàìîñò³éíî. Î÷åâèäíî, ùî äëÿ âèÿâëåííÿ ïðèõîâàíèõ
çíàíü ³ç âåëè÷åçíîãî îá’ºìó ³íôîðìàö³¿ ïîòð³áíî çàñòîñîâóâàòè
ñïåö³àëüí³ ìåòîäè àâòîìàòèçîâàíîãî àíàë³çó äàíèõ. «×åðåç âåëè-
êó ê³ëüê³ñòü ³íôîðìàö³¿ ò³ëüêè äóæå ìàëà ¿¿ ÷àñòèíà áóäå êîëè-
íåáóäü ïîáà÷åíà ëþäñüêèì îêîì. Íàøà ºäèíà íàä³ÿ ïîëÿãຠó
òîìó, ùîá çðîçóì³òè òà çíàéòè ùîñü êîðèñíå ó öüîìó îêåàí³
³íôîðìàö³¿ çàâäÿêè øèðîêîìó çàñòîñóâàííþ ìåòîä³â Data
Mining», — â³äçíà÷èâ îäèí ³ç çàñíîâíèê³â öüîãî íàïðÿìó Ãðè-
ãîð³é Ï’ÿòåöüêèé-Øàï³ðî (Gregory P³atetsky-Shap³ro) [1, 2].
Ñóòü ³ ìåòà òåõíîëî㳿 Data Mining ïîëÿãàþòü ó ïîøóêó íåî-
÷åâèäíèõ, îá’ºêòèâíèõ ³ êîðèñíèõ íà ïðàêòèö³ çàêîíîì³ðíîñòåé
ó âåëèêèõ îáñÿãàõ äàíèõ.  îñíîâó ñó÷àñíî¿ òåõíîëî㳿 Data Mining
ïîêëàäåíà êîíöåïö³ÿ øàáëîí³â (ïàòòåðí³â), ÿê³ â³äîáðàæàþòü
ôðàãìåíòè áàãàòîàñïåêòíèõ âçàºìîâ³äíîñèí â äàíèõ. Ö³ ôðàãìåí-
òè ïðåäñòàâëÿþòü ñîáîþ çàêîíîì³ðíîñò³, âëàñòèâ³ âèá³ðêàì äà-
íèõ, ÿê³ ìîæóòü áóòè âèðàæåí³ êîìïàêòíî ó çðîçóì³ë³é ëþäèí³
ôîðì³. Ïîøóê øàáëîí³â çä³éñíþºòüñÿ çà ìåòîäàìè, íå îáìåæå-
íèìè ðàìêàìè àïð³îðíèõ ïðèïóùåíü ñòîñîâíî ñòðóêòóðè âèá³ð-
êè òà âèäó ðîçïîä³ëó çíà÷åíü çì³ííèõ, ùî àíàë³çóþòüñÿ.
Òåõíîëî㳿 Data Mining ëåæàòü íà ïåðåòèí³ äåê³ëüêîõ íàóê
(ðèñ. 1). Äî ìåòîä³â òà àëãîðèòì³â Data Mining â³äíîñÿòü øòó÷í³
íåéðîíí³ ìåðåæ³, äåðåâà ð³øåíü, ñèìâîëüí³ ïðàâèëà, ìåòîäè
íàéáëèæ÷îãî ñóñ³äà ³ −k íàéáëèæ÷îãî ñóñ³äà, ìåòîä îïîðíèõ
âåêòîð³â, áàéºñ³âñüê³ ìåðåæ³, ë³í³éíó ðåãðåñ³þ; ³ºðàðõ³÷í³ òà
í峺ðàðõ³÷í³ ìåòîäè êëàñòåðíîãî àíàë³çó, ó òîìó ÷èñë³ àëãîðèò-
ìè −k ñåðåäí³õ ³ −k ìåä³àíè; ìåòîäè ïîøóêó àñîö³àòèâíèõ
ïðàâèë; åâîëþö³éíå ïðîãðàìóâàííÿ ³ ãåíåòè÷í³ àëãîðèòìè;
193
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
ìåòîäè â³çóàë³çàö³¿ äàíèõ òà ³íø³ ìåòîäè. Äî çàäà÷ Data Mining
â³äíîñÿòü: êëàñèô³êàö³þ, êëàñòåðèçàö³þ, àñîö³àö³þ, ïîñë³äîâíó
àñîö³àö³þ, ïðîãíîçóâàííÿ, âèçíà÷åííÿ â³äõèëåíü àáî âèêèä³â,
îö³íþâàííÿ ïàðàìåòð³â ³ ñòàí³â äèíàì³÷íèõ ñèñòåì, àíàë³ç
âçàºìíèõ çâ’ÿçê³â ì³æ ïîä³ÿìè, â³çóàë³çàö³þ ìàñèâ³â äàíèõ,
ï³äâåäåííÿ ï³äñóìê³â ³ ò. ³í.
2. Áàéºñ³âñüêà ìåðåæà — ³íñòðóìåíò ³íòåëåêòóàëüíîãî àíàë³çó
äàíèõ
²íòåëåêòóàëüíèé àíàë³ç äàíèõ (²ÀÄ) — ìóëüòèäèñöèïë³íàðíà
îáëàñòü, ùî âèíèêëà òà ðîçâèâàºòüñÿ íà áàç³ òàêèõ íàóê, ÿê
ïðèêëàäíà ñòàòèñòèêà, ðîçï³çíàâàííÿ îáðàç³â, øòó÷íèé ³íòå-
ëåêò, òåîð³ÿ áàç äàíèõ òà ³í. (ðèñ. 1).
Ðèñ. 1. ²ÀÄ ÿê ìóëüòèäèñöèïë³íàðíà îáëàñòü.
Á³ëüø³ñòü ³íñòðóìåíò³â ³íòåëåêòóàëüíîãî àíàë³çó äàíèõ ´ðóí-
òóºòüñÿ íà äâîõ òåõíîëîã³ÿõ: ìàøèííå íàâ÷àííÿ (machine
learning) ³ â³çóàë³çàö³ÿ (â³çóàëüíå ïîäàííÿ ³íôîðìàö³¿). Ö³ äâ³
òåõíîëî㳿 ÿêðàç ³ ïîºäíóþòü ó ñîá³ áàéºñ³âñüê³ ìåðåæ³ (ÁÌ).
Öå â³äíîñíî ìîëîäèé íàïðÿì ðîçâèòêó ìåòîä³â ìîäåëþâàííÿ,
ïðîãíîçóâàííÿ òà êëàñèô³êàö³¿, ÿêèé ç’ÿâèâñÿ íà ñòèêó òåîð³¿
éìîâ³ðíîñòåé ³ òåî𳿠ãðàô³â (ðèñ. 2). ÁÌ — öå ãðàôè ³ç äå-
ÿêèìè õàðàêòåðíèìè âëàñòèâîñòÿìè. ²äåÿ ñòâîðåííÿ ³ çàñòîñó-
âàííÿ ÁÌ ïîëÿãຠó êîðåêòíîìó ïðåäñòàâëåíí³ ïðè÷èííî-íà-
ñë³äêîâèõ çâ’ÿçê³â, õàðàêòåðíèõ äëÿ äîñë³äæóâàíîãî ïðîöåñó, ó
âèãëÿä³ ñïðÿìîâàíîãî ãðàôà.
194
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
Ðèñ. 2. ÁÌ íà ñòèêó äâîõ íàóê.
Òîìàñ Áàéºñ (àíãë³éñüêèé ñâÿùåíèê ñåðåäèíè XVIII ñòî-
ë³òòÿ) îäíèì ç ïåðøèõ çàö³êàâèâñÿ éìîâ³ðí³ñòþ íàñòàííÿ ïîä³é
ó ìàéáóòíüîìó, ´ðóíòóþ÷èñü íà ³íôîðìàö³¿ ïðî ìèíóë³ âèï-
ðîáóâàííÿ, ôàêòè òà ïî䳿. Ñàìå òåîðåìà Áàéºñà ïîâ’ÿçóº àïð³îðí³
òà àïîñòåð³îðí³ éìîâ³ðíîñò³ ïîä³é ï³ñëÿ ñïîñòåðåæåííÿ çà íà-
ñë³äêàìè, òîáòî ï³ñëÿ îòðèìàííÿ äîäàòêîâî¿ ³íôîðìàö³¿ çàâäÿ-
êè åêñïåðèìåíòó. Äî âïðîâàäæåííÿ òåðì³íó «áàéºñ³âñüêà ìå-
ðåæà» Äæóä³ Ïåðë çàñòîñîâóâàâ ÁÌ ï³ä íàçâîþ «êàóçàëüí³
ìåðåæ³» (causal networks), òîáòî ìåðåæ³ ç ïðè÷èííî-íàñë³äêî-
âèìè çâ’ÿçêàìè. Áàéºñ³âñüêèìè âîíè ñòàëè çàâäÿêè çàñòîñó-
âàííþ â êàóçàëüíèõ ìåðåæàõ òåîðåìè Áàéºñà.
Òåîðåìà Áàéºñà äëÿ äèñêðåòíèõ ïàðàìåòð³â ³ äèñêðåòíèõ ïîä³é
(ñïðîùåíèé âàð³àíò). Íåõàé −nННН ...,,, 21 ïîïàðíî íåñóì³ñí³
ïî䳿, ê³ëüê³ñòü ÿêèõ çá³ãàºòüñÿ ç óñ³ì âèá³ðêîâèì ïðîñòîðîì
ïîä³é. Òîä³ äëÿ áóäü-ÿêî¿ âèïàäêîâî¿ ïî䳿 X, ùî ìîæå ç’ÿâè-
òèñÿ ëèøå çà óìîâè ïîÿâè îäí³º¿ ç ïîä³é nННН ...,,, 21 , ³
òàêî¿, ùî 0)( ≠XP , âèêîíóºòüñÿ ð³âí³ñòü:
nk
HpHXp
HpHXp
XHp
n
i ii
kk
k ,1,
)()|(
)()|(
)|(
1
=
⋅
⋅
=
∑ =
. (1)
Ó âèðàç³ (1) kH îçíà÷ຠáóäü-ÿêó ã³ïîòåçó ç n ìîæëèâèõ.
Éìîâ³ðíîñò³ )|( kHXp çàäàþòüñÿ åêñïåðòàìè àïð³îðíî, àáî ¿õ
ðîçðàõîâóþòü çà íàâ÷àëüíèìè äàíèìè. Òîáòî ¿õ ìîæíà ðîçã-
ëÿäàòè ÿê â³äïîâ³äü íà çàïèòàííÿ: «ßêîþ áóäå éìîâ³ðí³ñòü ïîÿâè
äåÿêî¿ ïîä³é (äåÿêîãî âèì³ðó) çà óìîâè, ùî â³äîìî, ÿêà ã³ïîòåçà
áóëà ðåàë³çîâàíà?». Óìîâí³ éìîâ³ðíîñò³ )|( kHXp (¿õ íàçèâàþòü
ùå ïðàâäîïîä³áí³ñòþ) º äóæå êîðèñíèìè, òîìó ùî, ÿê ïðàâè-
195
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
ëî, ëåãøå çíàéòè éìîâ³ðí³ñòü ïîñë³äîâíîñò³ ïîä³é òèïó ïðè÷è-
íà-íàñë³äîê, í³æ íàâïàêè. Çíà÷åííÿ )( kHp íàçèâàþòü àïð³îð-
íèìè éìîâ³ðíîñòÿìè, òîìó ùî âîíè âèçíà÷àþòü ïî÷àòêîâ³ éìî-
â³ðíîñò³ äëÿ âñ³õ ã³ïîòåç. Î÷åâèäíî, ùî ïîòóæí³ñòü áàéºñ³âñüêîãî
ìåòîäó ïîëÿãຠó ìîæëèâîñò³ óòî÷íåííÿ (îíîâëåííÿ) àïð³îð-
íèõ éìîâ³ðíîñòåé ó â³äïîâ³äíîñò³ äî ôàêòè÷íèõ ðåàë³é ïðî-
ò³êàííÿ ïðîöåñó, ùî äîñë³äæóºòüñÿ. Öå äîçâîëÿº óòî÷íþâàòè
àïð³îðí³ éìîâ³ðíîñò³ ïîä³é ïðè íàäõîäæåíí³ äîäàòêîâî¿ ³íôîð-
ìàö³¿. Î÷åâèäíî, ùî òàêå óòî÷íåííÿ ìîæå áóòè ³òåðàö³éíèì,
òîáòî íà íàñòóïíîìó åòàï³ äîñë³äæåííÿ îòðèìàí³ àïîñòåð³îðí³
éìîâ³ðíîñò³ ìîæíà ïðèéíÿòè çà àïð³îðí³.
2.1. Ïåðåâàãè çàñòîñóâàííÿ áàéºñ³âñüêèõ ìåðåæ
 ðàìêàõ òåõíîëî㳿 ²ÀÄ ãîëîâíà ö³íí³ñòü ÁÌ ïîëÿãຠó ¿õ
çäàòíîñò³ âèÿâëÿòè íåâ³äîì³ òà íåòðèâ³àëüí³ çâ’ÿçêè ì³æ ôàê-
òîðàìè, ïðî ÿê³ ³íîä³ íàâ³òü ñàì³ åêñïåðòè ó â³äïîâ³äí³é ïðåä-
ìåòí³é îáëàñò³ íå çàâæäè ìàþòü óÿâó. Áàéºñ³âñüê³ ìåðåæ³ çíà-
õîäÿòü ñâîº ïðàêòè÷íå çàñòîñóâàííÿ ó òàêèõ ñôåðàõ, ÿê
ìåäèöèíà, ô³íàíñè òà åêîíîì³êà, êîìï’þòåðè ³ ñèñòåìíå ïðî-
ãðàìíå çàáåçïå÷åííÿ, îáðîáêà çîáðàæåíü òà â³äåî, â³éñüêîâà
ñïðàâà, êîñì³÷í³ ïîëüîòè òà äîñë³äæåííÿ, à òàêîæ ³ áàãàòüîõ
³íøèõ ñôåðàõ.
Íà â³äì³íó â³ä ³íøèõ ìåòîä³â ²ÀÄ, çàñòîñóâàííÿ áàéºñ³âñü-
êèõ ìåðåæ äî àíàë³çó ïðîöåñ³â ð³çíî¿ ïðèðîäè, ä³ÿëüíîñò³
ëþäèíè òà ôóíêö³îíóâàííÿ òåõí³÷íèõ ñèñòåì äîçâîëÿº âðàõî-
âóâàòè òà âèêîðèñòîâóâàòè áóäü-ÿê³ âõ³äí³ äàí³ ó âèãëÿä³ åêñ-
ïåðòíèõ îö³íîê ³ ñòàòèñòè÷íî¿ ³íôîðìàö³¿.  ñâîþ ÷åðãó, çì³íí³
ìîæóòü áóòè äèñêðåòíèìè ³ íåïåðåðâíèìè, à õàðàêòåð ¿õ íàä-
õîäæåííÿ ó ïðîöåñ³ àíàë³çó òà ïðèéíÿòòÿ ð³øåííÿ ìîæå áóòè
â ðåæèì³ ðåàëüíîãî ÷àñó ³ ó âèãëÿä³ ñòàòè÷íèõ ìàñèâ³â ³íôîð-
ìàö³¿ òà áàç äàíèõ. Çàâäÿêè âèêîðèñòàííþ ïðåäñòàâëåííÿ âçàº-
ìî䳿 ì³æ ôàêòîðàìè ïðîöåñó ó âèãëÿä³ ïðè÷èííî-íàñë³äêîâèõ
çâ’ÿçê³â ó ìåðåæ³ äîñÿãàºòüñÿ ìàêñèìàëüíî âèñîêèé ð³âåíü
â³çóàë³çàö³¿ òà ÷³òêå ðîçóì³ííÿ ñóò³ âçàºìî䳿 ì³æ ôàêòîðàìè
ïðîöåñó. ²íøèìè ïåðåâàãàìè ÁÌ º ìîæëèâîñò³ âðàõóâàííÿ
íåâèçíà÷åíîñòåé ñòàòèñòè÷íîãî, ñòðóêòóðíîãî ³ ïàðàìåòðè÷íî-
ãî õàðàêòåðó, à òàêîæ ôîðìóâàííÿ âèñíîâêó (ïðèéíÿòòÿ ð³øåí-
íÿ) çà äîïîìîãîþ ð³çíèõ ìåòîä³â — íàáëèæåíèõ ³ òî÷íèõ.
196
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
Çàãàëîì ìîæíà ñêàçàòè, ùî ÁÌ — öå âèñîêîðåñóðñíèé ìåòîä
éìîâ³ðí³ñíîãî ìîäåëþâàííÿ ïðîöåñ³â äîâ³ëüíî¿ ïðèðîäè ç íåâèçíà-
÷åíîñòÿìè ð³çíèõ òèï³â, ÿêèé çàáåçïå÷óº ìîæëèâ³ñòü äîñòàòíüî
òî÷íîãî îïèñó ¿õ ôóíêö³îíóâàííÿ, îö³íþâàòè ïðîãíîçè, ðîçâ’ÿçó-
âàòè çàäà÷³ êëàñèô³êàö³¿ òà áóäóâàòè ñèñòåìè óïðàâë³ííÿ.
2.2. Ìàòåìàòè÷íèé îïèñ áàéºñ³âñüêî¿ ìåðåæ³
ÁÌ ïðåäñòàâëÿº ñîáîþ ïàðó >< BG, , ó ÿê³é ïåðøà êîìïî-
íåíòà G — öå ñïðÿìîâàíèé àöèêë³÷íèé ãðàô, ùî â³äïîâ³äàº
çì³ííèì äîñë³äæóâàíîãî ïðîöåñó ³ ïðåäñòàâëÿºòüñÿ ó âèãëÿä³
ïðè÷èííî-íàñë³äêîâî¿ ìåðåæ³. Äðóãà êîìïîíåíòà ïàðè, B —
öå ìíîæèíà ïàðàìåòð³â, ùî âèçíà÷àþòü ìåðåæó. Öÿ êîìïî-
íåíòà ì³ñòèòü ïàðàìåòðè ( ) ( )( ))()(
)()(
ii
XpaX
XpaXPii =Θ äëÿ êîæ-
íîãî ìîæëèâîãî çíà÷åííÿ )()( ii Xx ∈ òà )()( )()( ii XPaXpa ∈ , äå
)( )(iXPa ïîçíà÷ຠíàá³ð áàòüê³â çì³ííî¿ GX i ∈)( . Êîæí³é
çì³íí³é GX i ∈)( â³äïîâ³äຠîêðåìà âåðøèíà. ßêùî ðîçãëÿäà-
þòü á³ëüøå îäíîãî ãðàôà, òî äëÿ âèçíà÷åííÿ áàòüê³â çì³ííî¿
)(iX â ãðàô³ G âèêîðèñòîâóþòü ïîçíà÷åííÿ )( )(iG XPa . Ïîâíà
ñï³ëüíà éìîâ³ðí³ñòü ÁÌ îá÷èñëþºòüñÿ çà ôîðìóëîþ:
))((),...,( )()(
1
)()1( ii
B
N
i
N
B XPaXPXXP ∏ == .
Ç ìàòåìàòè÷íî¿ òî÷êè çîðó ÁÌ — öå ìîäåëü ïðåäñòàâëåííÿ
íàÿâíèõ ³ìîâ³ðí³ñíèõ çàëåæíîñòåé. Ïðè öüîìó çâ’ÿçîê BA →
º ïðè÷èííèì, ÿêùî ïîä³ÿ A º ïðè÷èíîþ âèíèêíåííÿ B ,
òîáòî êîëè ³ñíóº ìåõàí³çì, â³äïîâ³äíî äî ÿêîãî çíà÷åííÿ,
ïðèéíÿòå A , âïëèâຠíà çíà÷åííÿ, ïðèéíÿòå B . ÁÌ íàçèâà-
þòü ïðè÷èííîþ (êàóçàëüíîþ), ÿêùî âñ³ ¿¿ çâ’ÿçêè ïðè÷èíí³.
Íàñïðàâä³ áàéºñ³âñüêà ìåòîäîëîã³ÿ íàáàãàòî øèðøà í³æ ñ³ìåé-
ñòâî çàñîá³â ìàí³ïóëþâàííÿ ç óìîâíèìè éìîâ³ðíîñòÿìè â
îð³ºíòîâàíèõ ãðàôàõ. Âîíà âêëþ÷ຠâ ñåáå òàêîæ ìîäåë³ ³ç
ñèìåòðè÷íèìè çâ’ÿçêàìè (âèïàäêîâ³ ïîëÿ òà ðåø³òêè), ìîäåë³
äèíàì³÷íèõ ïðîöåñ³â (ëàíöþãè Ìàðêîâà), à òàêîæ øèðîêèé
197
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
êëàñ ìîäåëåé ³ç ïðèõîâàíèìè çì³ííèìè, ÿê³ äàþòü ìîæëèâ³ñòü
ðîçâ’ÿçóâàòè çàäà÷³ ³ìîâ³ðí³ñíî¿ êëàñèô³êàö³¿, ðîçï³çíàâàííÿ
îáðàç³â, ïðîãíîçóâàííÿ òà êåðóâàííÿ. Íîâ³ îáëàñò³ çàñòîñóâàí-
íÿ ÁÌ òàê³: (1) äèíàì³÷í³ ïðîöåñè ³ äèíàì³÷íå ïðîãðàìóâàííÿ;
(2) îïòèìàëüíå êåðóâàííÿ ñòîõàñòè÷íèìè ñèñòåìàìè; (3) ïðèé-
íÿòòÿ ð³øåíü â àâòîíîìíèõ ³íòåëåêòóàëüíèõ ñèñòåìàõ (íàïðèê-
ëàä, ³íòåëåêòóàëüíèõ ñèñòåìàõ ï³äòðèìêè ïðèéíÿòòÿ ð³øåíü).
2.3. Òèïè áàéºñ³âñüêèõ ìåðåæ
1. Äèñêðåòí³ ÁÌ — ìåðåæ³, ó ÿêèõ çì³íí³ âóçë³â ïðåäñòàâ-
ëåí³ äèñêðåòíèìè âåëè÷èíàìè. Äèñêðåòí³ ÁÌ ìàþòü òàê³ âëà-
ñòèâîñò³:
— êîæíà âåðøèíà ïðåäñòàâëÿº ñîáîþ ïîä³þ, ùî îïèñóºòüñÿ
âèïàäêîâîþ âåëè÷èíîþ, ÿêà ìîæå ìàòè ê³ëüêà ñòàí³â;
— âñ³ âåðøèíè, ïîâ’ÿçàí³ ç «áàòüê³âñüêèìè», âèçíà÷àþòüñÿ
òàáëèöåþ óìîâíèõ iìîâ³ðíîñòåé (ÒÓI) àáî ôóíêö³ºþ óìîâíèõ
éìîâ³ðíîñòåé;
— äëÿ âåðøèí áåç «áàòüê³â» éìîâ³ðíîñò³ ¿õ ñòàí³â º áåçó-
ìîâíèìè (ìàðã³íàëüíèìè).
²íàêøå êàæó÷è, ó áàéºñ³âñüêèõ ìåðåæàõ äîâ³ðè âåðøèíè
ïðåäñòàâëÿþòü ñîáîþ âèïàäêîâ³ çì³íí³, à äóãè — ³ìîâ³ðí³ñí³
çàëåæíîñò³, ÿê³ âèçíà÷àþòüñÿ òàáëèöÿìè óìîâíèõ ³ìîâ³ðíîñ-
òåé. ÒÓ² êîæíî¿ âåðøèíè ì³ñòèòü éìîâ³ðíîñò³ ñòàí³â ö³º¿ âåðøè-
íè çà óìîâè êîíêðåòíèõ çíà÷åíü ñòàí³â ¿¿ «áàòüê³â». Íà ðèñ. 3
íàâåäåíî ïðèêëàä äèñêðåòíî¿ ÁÌ, êîæíà âåðøèíà ÿêî¿ ìîæå
ïðèéìàòè îäèí ³ç äâîõ ñòàí³â F àáî T (ñêîðî÷åííÿ â³ä «false»
³ «true»). Çàïèñ )( BAP îçíà÷ຠéìîâ³ðí³ñòü íàñòàííÿ ïî䳿 A
çà óìîâè, ùî ïîä³ÿ B âæå â³äáóëàñü.
2. Äèíàì³÷í³ ÁÌ — ìåðåæ³, ó ÿêèõ çíà÷åííÿ âóçë³â çì³íþþòüñÿ
ç ÷àñîì, òîáòî öå ìåðåæà, ÿêà îïèñóº ñòàíè äèíàì³÷íî¿ ñèñòåìè.
Äèíàì³÷í³ ÁÌ ³äåàëüíî ï³äõîäÿòü äëÿ ìîäåëþâàííÿ ïðîöåñ³â,
ÿê³ çì³íþþòüñÿ ó ÷àñ³. ¯õ ïåðåâàãà ïîëÿãຠó òîìó, ùî âîíè
âèêîðèñòîâóþòü òàáëè÷íå ïðåäñòàâëåííÿ óìîâíèõ éìîâ³ðíîñ-
òåé, ùî ïîëåãøóº, íàïðèêëàä, ïðåäñòàâëåííÿ ð³çíèõ íåë³í³éíèõ
ÿâèù [39]. Òðåáà ï³äêðåñëèòè, ùî òåðì³í «÷àñîâà áàéºñ³âñüêà
ìåðåæà» (temporal Bayes³an network) êðàùå â³äîáðàæàº ñóòü, í³æ
«äèíàì³÷íà áàéºñ³âñüêà ìåðåæà» (dynam³c Bayes³an network),
îñê³ëüêè òóò ïåðåäáà÷àºòüñÿ, ùî ñòðóêòóðà ìîäåë³ íå çì³íþºòü-
198
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
Ðèñ. 3. Äèñêðåòíà ÁÌ ç òàáëèöåþ óìîâíèõ iìîâ³ðíîñòåé.
ñÿ. Çàçâè÷àé ïàðàìåòðè ìîäåë³ íå çì³íþþòüñÿ ç ÷àñîì, àëå äî
ñòðóêòóðè ìåðåæ³ çàâæäè ìîæíà äîäàòè äîäàòêîâ³ ïðèõîâàí³
âóçëè äëÿ óòî÷íåííÿ îïèñó ïîòî÷íîãî ñòàíó ïðîöåñó [21].
Íàéïðîñò³øèé òèï äèíàì³÷íî¿ ÁÌ — öå ïðèõîâàíà ìîäåëü
Ìàðêîâà (Hidden Markov Model), ó êîæíîìó øàð³ ÿêî¿ íàÿâíèé
îäèí äèñêðåòíèé ïðèõîâàíèé âóçîë òà îäèí äèñêðåòíèé àáî
áåçïåðåðâíèé ñïîñòåðåæóâàíèé âóçîë. ²ëþñòðàö³ÿ ìîäåë³ íàâå-
äåíà íà ðèñ. 4. Êðóãë³ âåðøèíè ïîçíà÷àþòü íåïåðåðâí³ âóçëè,
êâàäðàòí³ ïîçíà÷àþòü äèñêðåòí³; X — ïðèõîâàí³ âóçëè, à Y —
ñïîñòåðåæóâàí³. Äëÿ âèçíà÷åííÿ äèíàì³÷íî¿ ÁÌ ïîòð³áíî çàäà-
òè ïî÷àòêîâèé ðîçïîä³ë ))(( tXP , òîïîëîã³þ óñåðåäèí³ øàðó òà
ì³æøàðîâó òîïîëîã³þ (ì³æ äâîìà øàðàìè) ))()(( tXtYP [22].
Ìåðåæ³ òàêîãî òèïó âèêîðèñòîâóþòü äëÿ ðîçï³çíàâàííÿ ìîâè.
Ó öüîìó âèïàäêó âóçëè ),...2(),1(),( ++ tYtYtY ïðåäñòàâëÿþòü
ñîáîþ ôîíåìè ñë³â, à âóçëè ),...2(),1(),( ++ tXtXtX — öå áóê-
âè, ç ÿêèõ ñêëàäàºòüñÿ ñëîâî. Òàêà ìîäåëü º äèíàì³÷íîþ â
òîìó ñåíñ³, ùî äàíà ìåðåæà áóäå ïðåäñòàâëÿòè ñîáîþ ìíîæèíó
áëîê³â, ÿê³ ïîâòîðþþòüñÿ ó ð³çí³ ìîìåíòè ÷àñó [4].
199
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
Ðèñ. 4. Ñêðèòà äâîøàðîâà ìîäåëü Ìàðêîâà, â ÿê³é X — ïðèõîâàí³
äèñêðåòí³, à Y — äèñêðåòí³ àáî íåïåðåðâí³ ñïîñòåðåæóâàí³ âóçëè.
3. Íåïåðåðâí³ ÁÌ — ìåðåæ³, â ÿêèõ çì³íí³ âóçë³â — öå
íåïåðåðâí³ âåëè÷èíè. Ó áàãàòüîõ âèïàäêàõ ïî䳿 ìîæóòü ïðèé-
ìàòè áóäü-ÿê³ ñòàíè ç äåÿêîãî ä³àïàçîíó. Òîáòî çì³ííà X —
íåïåðåðâíà âèïàäêîâà âåëè÷èíà, ïðîñòîðîì ìîæëèâèõ ñòàí³â
ÿêî¿ º âåñü ä³àïàçîí ¿¿ äîïóñòèìèõ çíà÷åíü { }bxaxX ≤≤= ,
ùî ì³ñòèòü íåñê³í÷åííó ìíîæèíó òî÷îê. Ó öüîìó âèïàäêó
íåêîðåêòíî ãîâîðèòè ïðî éìîâ³ðíîñò³ îêðåìîãî ñòàíó, òîìó
ùî ïðè ¿õ íåñê³í÷åííî âåëèê³é ê³ëüêîñò³ âàãà êîæíîãî áóäå
íàáëèæàòèñü äî íóëÿ. Òîìó ðîçïîä³ë éìîâ³ðíîñòåé äëÿ íåïå-
ðåðâíî¿ âèïàäêîâî¿ âåëè÷èíè âèçíà÷àºòüñÿ ³íàêøå, í³æ ó äèñ-
êðåòíîìó âèïàäêó; äëÿ ¿õ îïèñó âèêîðèñòîâóþòü ôóíêö³¿ ðîç-
ïîä³ëó éìîâ³ðíîñòåé ³ ù³ëüíîñò³ ðîçïîä³ëó éìîâ³ðíîñòåé.
Íåïåðåðâí³ ÁÌ âèêîðèñòîâóþòü äëÿ ìîäåëþâàííÿ ñòîõàñòè÷-
íèõ ïðîöåñ³â ó ïðîñòîð³ ñòàí³â ç íåïåðåðâíèì ÷àñîì.
4. óáðèäí³ ÁÌ — ìåðåæ³, ÿê³ ì³ñòÿòü âóçëè ç äèñêðåòíèìè
³ íåïåðåðâíèìè çì³ííèìè. Ïðè âèêîðèñòàíí³ ÁÌ, ùî ì³ñòÿòü
íåïåðåðâí³ ³ äèñêðåòí³ çì³íí³, ³ñíóº ðÿä îáìåæåíü:
1 — äèñêðåòí³ çì³íí³ íå ìîæóòü ìàòè íåïåðåðâíèõ áàòüê³â;
2 — íåïåðåðâí³ çì³íí³ ïîâèíí³ ìàòè íîðìàëüíèé çàêîí
ðîçïîä³ëó, óìîâíèé íà çíà÷åííÿõ áàòüê³â;
3 — ðîçïîä³ë íåïåðåðâíî¿ çì³ííî¿ X ç äèñêðåòíèìè áàòü-
êàìè Y òà íåïåðåðâíèìè áàòüêàìè Z º íîðìàëüíèì:
))(),,((),( yxzyxNzZyYXP σσµµµ=== ,
äå zyx µµµ ,, — ìàòåìàòè÷í³ ñïîä³âàííÿ, yx σσ , — äèñïåðñ³¿,
200
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
yx σσ , — ñåðåäíüîêâàäðàòè÷í³ â³äõèëåííÿ; xµ ë³í³éíî çàëå-
æèòü â³ä íåïåðåðâíèõ áàòüê³â, à xσ âçàãàë³ íå çàëåæèòü â³ä
íåïåðåðâíèõ áàòüê³â. Îäíàê, xµ òà xσ çàëåæàòü â³ä äèñêðåòíèõ
áàòüê³â. Öå îáìåæåííÿ ãàðàíòóº ìîæëèâ³ñòü ôîðìóâàííÿ òî÷-
íîãî âèñíîâêó.
3. Ìåòîäè îö³íþâàííÿ ñòðóêòóðè áàéºñ³âñüêèõ ìåðåæ
Á³ëüø³ñòü ³ñíóþ÷èõ ìåòîä³â îö³íþâàííÿ (ïîáóäîâè) ñòðóê-
òóðè ÁÌ ìîæíà óìîâíî ðîçä³ëèòè íà äâ³ êàòåãî𳿠[6, 7]: (1)
íà îñíîâ³ îö³íî÷íèõ ôóíêö³é (search & scoring) òà (2) íà îñíîâ³
òåñòó íà óìîâíó íåçàëåæí³ñòü (dependency analysis). Á³ëüø³ñòü
³ç ³ñíóþ÷èõ ìåòîä³â çóñòð³÷àþòüñÿ ç òàêèìè ïðîáëåìàìè:
1. Íàÿâí³ñòü óïîðÿäêîâàíî¿ ìíîæèíè âåðøèí (ÓÌÂ). Ó
á³ëüøîñò³ ìåòîä³â, îñîáëèâî ðîçðîáëåíèõ ðàí³øå, ââàæàºòüñÿ,
ùî ÓÌÂ çàäàíà, àëå ïðè îáðîáö³ ðåàëüíèõ äàíèõ öå äóæå
÷àñòî íå â³äïîâ³äຠä³éñíîñò³.
2. Íèçüêà îá÷èñëþâàëüíà åôåêòèâí³ñòü. Äåÿê³ ñó÷àñí³ ìåòî-
äè ïðàöþþòü áåç âèêîðèñòàííÿ ÓÌÂ, à çàì³ñòü íå¿ âèêîðèñ-
òîâóþòü òåñò íà óìîâíó íåçàëåæí³ñòü (ÒÓÍ). Îäíàê â öüîìó
âèïàäêó ÷àñòî áóâຠíåîáõ³äíî âèêîíàòè åêñïîíåíö³àëüíó
ê³ëüê³ñòü òàêèõ òåñò³â, ùî ïðèçâîäèòü äî çìåíøåííÿ åôåêòèâ-
íîñò³ ðîáîòè ìåòîäó ó çâ’ÿçêó ³ç çíà÷íèì çðîñòàííÿì îá’ºìó
îá÷èñëåíü.
3. Ïðîáëåìà ïîáóäîâè âåëèêèõ ÁÌ. ²ñíóþòü ìåòîäè, çà
äîïîìîãîþ ÿêèõ ìîæíà ïîáóäóâàòè ñòðóêòóðó ÁÌ ç äåê³ëüêî-
ìà ñîòíÿìè âåðøèí, âèêîðèñòîâóþ÷è íàâ÷àëüíó âèá³ðêó ç
ì³ëüéîí³â çàïèñ³â. Äî òàêèõ ìåòîä³â â³äíîñÿòüñÿ Tetrad II [30]
òà SopLeq [17].
3.1. Ìåòîäè íà îñíîâ³ îö³íî÷íèõ ôóíêö³é
Äëÿ ïîáóäîâè ÁÌ ó âèãëÿä³ äåðåâà ×ó ³ Ë³ó (Chow and L³u)
â 1968 ðîö³ çàïðîïîíóâàëè àëãîðèòì [8], ùî ãðóíòóºòüñÿ íà
âèêîðèñòàíí³ çíà÷åíü âçàºìíî¿ ³íôîðìàö³¿ ì³æ âåðøèíàìè. Â
ÿêîñò³ ð³øåííÿ ìåòîä âèäຠñòðóêòóðó ³ç çíà÷åííÿì ñï³ëüíîãî
ðîçïîä³ëó éìîâ³ðíîñòåé ìåðåæ³, ÿêå íàéá³ëüøå â³äïîâ³äຠíà-
â÷àëüíèì äàíèì. Ïîáóäîâà ñòðóêòóðè ÁÌ çä³éñíþºòüñÿ çà )( 2NO
201
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
êðîê³â, äå N — ê³ëüê³ñòü âåðøèí ìåðåæ³. Îäíàê öåé àëãîðèòì
íå ïðàöþº äëÿ áàãàòîçâ’ÿçàíèõ ÁÌ.
 1988 ðîö³ гáàí ³ Ïåðë (Rebane and Pearl) çàïðîïîíóâàëè
óäîñêîíàëåíèé ìîäèô³êîâàíèé àëãîðèòì ×ó ³ Ë³ó äëÿ ïîáóäî-
âè ÁÌ ó âèãëÿä³ ïîë³-äåðåâà [24]. Êóïåð ³ Ãåðøêîâè÷ (Cooper
and Herskov³ts) â 1990 ðîö³ ðîçðîáèëè àëãîðèòì Êóòàòî (Kutato)
[16]. Íà åòàï³ ³í³ö³àë³çàö³¿ àëãîðèòìó ââàæàºòüñÿ, ùî âñ³ âåð-
øèíè ÁÌ íåçàëåæí³; ï³ñëÿ öüîãî îá÷èñëþºòüñÿ åíòðîï³ÿ ö³º¿
ìåðåæ³. Ïîò³ì âèêîíóºòüñÿ äîäàâàííÿ äóã ì³æ âåðøèíàìè ó
ìåðåæ³ òàêèì ÷èíîì, ùîá ì³í³ì³çóâàòè åíòðîï³þ ÁÌ. Äëÿ
ðîáîòè àëãîðèòìó ïîòð³áíà íàÿâí³ñòü ÓÌÂ.
Êóïåð ³ Ãåðøêîâè÷ â 1992 ðîö³ çàïðîïîíóâàëè øèðîêî â³äî-
ìèé àëãîðèòì Ê2 [10], ÿêèé âèêîíóº ïîøóê ñòðóêòóðè ç ìàê-
ñèìàëüíèì çíà÷åííÿì ôóíêö³¿ Êóïåðà-Ãåðøêîâè÷à (ÊÃ). Äëÿ
ðîáîòè àëãîðèòìó ïîòð³áíà íàÿâí³ñòü ÓÌÂ.  1994 ðîö³ çàïðî-
ïîíîâàíî àëãîðèòì HGC [15]. Öåé àëãîðèòì ñóòòºâî â³äð³çíÿºòü-
ñÿ â³ä ³íøèõ (ùî ´ðóíòóþòüñÿ íà îö³íî÷íèõ ôóíêö³ÿõ) òèì, ùî
óïåðøå, ñàìå â íüîìó, áóëè âèêîðèñòàí³ äâà íîâèõ ïîíÿòòÿ: (1)
ïàðàìåòðè÷íà ìîäóëüí³ñòü (parametric modularity) òà (2) ð³âíîç-
íà÷í³ñòü ïîä³é (event equivalence). ²íø³ äîñë³äíèêè äîñèòü äîâãî
íå âèêîðèñòîâóâàëè îäíî÷àñíî ö³ ïîíÿòòÿ. Îäíî÷àñíå çàñòîñó-
âàííÿ öèõ ïîíÿòü äîçâîëÿº îá’ºäíóâàòè ñòàòèñòè÷íó ³íôîðìà-
ö³þ òà åêñïåðòí³ çíàííÿ äëÿ ïîáóäîâè ÁÌ.
Âîíã ³ Êñ³àíã (Wong and Xiang) çàïðîïîíóâàëè â 1994 ðîö³
àëãîðèòì äëÿ ïîáóäîâè Ìàðêîâñüêèõ ìåðåæ ç âèêîðèñòàííÿì
çíà÷åííÿ åíòðîﳿ òà I-map [37]. Ãðàô G éìîâ³ðí³ñíî¿ ìîäåë³
M íàçèâàþòü íåçàëåæíîþ êàðòîþ (independency map, ñêîðî-
÷åíî I-map), ÿêùî ç íåçàëåæíîñò³ âåðøèí ãðàôà G âèïëèâàº
íåçàëåæí³ñòü ìîäåë³ M . Öåé àëãîðèòì äîçâîëÿº ïðåäñòàâèòè
ïðîöåñ, ÿêèé ìîäåëþºòüñÿ, ó âèãëÿä³ I-map ³ ó âèïàäêó, êîëè
ìåðåæà º îäíîçâ’ÿçíîþ, ãàðàíòîâàíî áóäóºòüñÿ ÁÌ. Ðàçîì ³ç
×ó (Chu) Êñ³àíã ðîçðîáèâ ó 1997 ðîö³ á³ëüø øâèäêîä³þ÷èé
âàð³àíò çàïðîïîíîâàíîãî àëãîðèòìó [9].
Àëãîðèòì Ëåìà-Áàõóñà (Lam-Bacchus) [18], çàïðîïîíîâàíèé
â 1996 ðîö³, âèêîíóº åâðèñòè÷íó ïîáóäîâó ñòðóêòóðè ìåðåæ³,
âèêîðèñòîâóþ÷è çíà÷åííÿ âçàºìíî¿ ³íôîðìàö³¿ ì³æ âåðøèíà-
ìè, à â ÿêîñò³ îö³íî÷íî¿ ôóíêö³¿ âèêîðèñòàºòüñÿ ôóíêö³ÿ îïèñó
ì³í³ìàëüíî¿ äîâæèíè (minimum description length).
202
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
Àëãîðèòì Áåíåäèêòà (Bened³ct) [3], çàïðîïîíîâàíèé â 1996
ðîö³, âèêîíóº åâðèñòè÷íèé ïîøóê íà îñíîâ³ ÓÌÂ, àíàë³çóþ÷è
óìîâí³ íåçàëåæíîñò³ â ñòðóêòóð³ ìåðåæ³ íà îñíîâ³ d-ðîçä³ëåí-
íÿ, à â ÿêîñò³ ôóíêö³¿ îö³íêè âèêîðèñòàºòüñÿ åíòðîï³ÿ. CB
àëãîðèòì [26] çàïðîïîíîâàíî â 1995 ðîö³. ³í âèêîðèñòîâóº
ÒÓÍ ì³æ âåðøèíàìè ìåðåæ³, äëÿ ïîáóäîâè ÂÌÂ. Äëÿ ïîáó-
äîâè ñòðóêòóðè ìåðåæ³ âèêîðèñòàºòüñÿ ôóíêö³ÿ ÊÃ.
Àëãîðèòì Ôð³äìàíà-Ãîëäøì³äòà (Fr³edman-Goldszm³dt) [12]
çàïðîïîíîâàíèé â 1996 ðîö³. Äëÿ ïîáóäîâè ìåðåæ³ âèêîðèñ-
òàºòüñÿ àíàë³ç ¿¿ ëîêàëüíèõ ï³äñòðóêòóð, à â ÿêîñò³ îö³íî÷íî¿
ôóíêö³¿ âèêîðèñòàºòüñÿ ôóíêö³ÿ îïèñó ì³í³ìàëüíîþ äîâæè-
íîþ (ÎÌÄ) òà îö³íêà Áàéºñà.
 àëãîðèòì³ WKD [35], çàïðîïîíîâàíîìó â 1996 ðîö³, çà
îö³íî÷íó ôóíêö³þ ïðè ïîáóäîâ³ ìåðåæ³ âèêîðèñòàíî ôóíêö³þ
ïîâ³äîìëåííÿ ì³í³ìàëüíî¿ äîâæèíè (minimum message length),
ÿêà ñõîæà íà ÎÌÄ. Àëãîðèòì Ñóçóê³ (Suzuk³), çàïðîïîíîâà-
íèé ó 1999 ðîö³, ´ðóíòóºòüñÿ íà ìåòîä³ ã³ëîê òà ãðàíèöü äëÿ
çàäàâàííÿ ïîñë³äîâíîñò³ ïîáóäîâè ñòðóêòóðè ìåðåæ³, à â ÿêîñò³
îö³íî÷íî¿ ôóíêö³¿ âèêîðèñòàºòüñÿ ÎÌÄ [32, 33].
Òàêîæ ³ñíóº ìíîæèíà ð³çíîìàí³òíèõ ïîãëèíàþ÷èõ àëãîðèòì³â
(greedy algorithm), â ÿêèõ äëÿ îö³íþâàííÿ ìîæíà âèêîðèñòî-
âóâàòè ôóíêö³¿ ð³çíîãî âèäó, íàïðèêëàä ìàêñèìàëüíî¿ ïðàâäî-
ïîä³áíîñò³ àáî áàéºñ³âñüêèé ³íôîðìàö³éíèé êðèòåð³é [19].
3.2. Ìåòîäè íà îñíîâ³ âèêîðèñòàííÿ òåñò³â íà óìîâíó íåçà-
ëåæí³ñòü
 1983 ðîö³ Âåðìóò ³ Ëîóðåíñ (Wermuth and Lauritzen) çàï-
ðîïîíóâàëè àëãîðèòì äëÿ ïîáóäîâè ñòðóêòóðè ÁÌ, çàñòîñîâóþ-
÷è ÒÓÍ [36]. Öåé àëãîðèòì âèêîíóº ïîñë³äîâíèé ïåðåá³ð ÓÌÂ.
Äëÿ êîæíî¿ ïàðè âåðøèí kX òà tX , òàêèõ, ùî kt XX < (òîáòî
kX — öå ïðåäîê äëÿ tX ), âèêîíóºòüñÿ îá÷èñëåííÿ çíà÷åííÿ
óìîâíî¿ íåçàëåæíîñò³. Öåé àëãîðèòì ãàðàíòóº ïîáóäîâó ÁÌ çà
íàâ÷àëüíèìè äàíèìè, àëå ïðè öüîìó ïîòð³áíî îá÷èñëèòè âåëè-
êó ê³ëüê³ñòü ÒÓÍ ì³æ âåðøèíàìè, ùî ìîæëèâî ëèøå ó âèïàä-
êó, êîëè ìåðåæà ñêëàäàºòüñÿ ç íåâåëèêî¿ ê³ëüêîñò³ âåðøèí.
 1988 ðîö³ Ïåðë (Pearl) çàïðîïîíóâàâ àëãîðèòì ïîáóäîâè
ñê³í÷åííîãî ñïðÿìîâàíîãî àöèêë³÷íîãî ãðàôà (boundary DAG
algorithm) [23]. Öåé àëãîðèòì áóäóº ÁÌ, ìàþ÷è ÓÌ òà ôóíêö³þ
203
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
ñï³ëüíîãî ðîçïîä³ëó (àáî äîñòàòíüî âåëèêó íàâ÷àëüíó âèá³ðêó
äàíèõ). Ðàçîì ³ç áóäü-ÿêèì, íå äîñèòü ñêëàäíèì ìåòîäîì
ïîøóêó, öåé àëãîðèòì ïîçáàâëåíèé ïðîáëåìè, ÿêà ïîëÿãຠó
íåîáõ³äíîñò³ ðîçðàõóíêó âåëèêî¿ ê³ëüêîñò³ òåñò³â íà óìîâíó
íåçàëåæí³ñòü, çàñòîñîâóþ÷è àëãîðèòì Âåðìóòà ³ Ëîóðåíñà [36].
Îäíàê íåîáõ³äí³ñòü îá÷èñëåííÿ âåëèêî¿ ê³ëüêîñò³ ÒÓÍ âèíè-
êຠïðè çàñòîñóâàíí³ öüîãî àëãîðèòìó äëÿ ïîáóäîâè ìàðêîâ-
ñüêèõ ìåðåæ, òîáòî ìåðåæ ³ç ïðèõîâàíèìè âóçëàìè.
 1990 ðîö³ çàïðîïîíîâàíî SRA àëãîðèòì [31], ÿêèé º
ìîäèô³êàö³ºþ àëãîðèòìó ñê³í÷åíîãî ñïðÿìîâàíîãî àöèêë³÷íî-
ãî ãðàôà [23]. Öåé àëãîðèòì âèñóâຠìåíø æîðñòê³ âèìîãè äî
óïîðÿäêóâàííÿ ìíîæèíè âåðøèí. Äëÿ ïîáóäîâè ÁÌ äîñòàò-
íüî ìàòè ÷àñòêîâî óïîðÿäêîâàíó ìíîæèíó âåðøèí òà ùå äåÿê³
îáìåæåííÿ. Ïîáóäîâà ÁÌ âèêîíóºòüñÿ ïîñë³äîâíèì äîäàâàí-
íÿì äóã ì³æ âåðøèíàìè ç âèêîðèñòàííÿì åâðèñòè÷íîãî ïîøó-
êó. Àëå öåé àëãîðèòì âèêîíóº åêñïîíåíö³àëüíó ê³ëüê³ñòü ðîç-
ðàõóíê³â òåñò³â íà óìîâíó íåçàëåæí³ñòü.
Àëãîðèòì «Êîíñòðóêòîð» (constructor algorithm) çàïðîïîíîâà-
íî ó 1990 ðîö³ [14]. ³í äóæå ñõîæèé íà àëãîðèòì ïîáóäîâè
ñê³í÷åíîãî ñïðÿìîâàíîãî àöèêë³÷íîãî ãðàôà [23]. Çàì³ñòü ÁÌ òóò
âèêîíóºòüñÿ ñïðîáà ïîáóäóâàòè ìàðêîâñüêó ìåðåæó. ³äì³íí³ñòü
öüîãî ìåòîäó â³ä ³íøèõ, ÿê³ âèêîðèñòîâóþòü ÒÓÍ, ïîëÿãຠó
òîìó, ùî â³í íå âèêîíóº íàäëèøêîâ³ òåñòè íà óìîâíó íåçà-
ëåæí³ñòü ³ éîìó íå ïîòð³áíà óïîðÿäêîâàíà ìíîæèíà âåðøèí.
Àëãîðèòìó SGS [28], çàïðîïîíîâàíîìó ó 1990 ðîö³, äëÿ ïîáóäî-
âè ñòðóêòóðè íå ïîòð³áíà íàÿâí³ñòü ÓÌÂ, àëå çàì³ñòü íå¿ éîìó
äîâîäèòüñÿ âèêîíóâàòè åêñïîíåíö³àëüíó ê³ëüê³ñòü òåñò³â íà óìîâíó
íåçàëåæí³ñòü ì³æ âåðøèíàìè. ÐÑ àëãîðèòì, ðîçðîáëåíèé â 1991
ðîö³, ïðåäñòàâëÿº ñîáîþ óäîñêîíàëåíèé âàð³àíò SGS àëãîðèòìó [27].
Öåé àëãîðèòì ðîçðîáëåíî ñïåö³àëüíî äëÿ ïîáóäîâè ðîçð³äæåíèõ
(sparse) ÁÌ, òîáòî äëÿ ìåðåæ ³ç íåâåëèêîþ ê³ëüê³ñòþ äóã ì³æ âåð-
øèíàìè. Àëãîðèòì KDB, çàïðîïîíîâàíèé ó 1996 ðîö³ äëÿ âèçíà-
÷åííÿ íàïðÿìó ïîáóäîâè ìåðåæ³, âèêîðèñòîâóº çíà÷åííÿ âçàºìíèõ
éìîâ³ðíîñòåé. Çà îö³íî÷íó ôóíêö³þ âèêîðèñòîâóºòüñÿ ôóíêö³îíàë,
ùî ì³í³ì³çóº çíà÷åííÿ ìåðåæ³. Àëãîðèòì FBC (full Bayesian network),
çàïðîïîíîâàíèé â 2006 ðîö³, ïðåäñòàâëÿº ñîáîþ óäîñêîíàëåíèé
àëãîðèòì KDB, ÿêèé â ÿêîñò³ ôóíêö³¿ îö³íêè ïðè ïîáóäîâ³ ìåðåæ³
âèêîðèñòîâóº ôóíêö³þ ñóìàðíèõ çíà÷åíü Dz âåðøèí.
204
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
3.3 ²íø³ ìåòîäè
Íå çàâæäè ïîáóäîâàíà ñòðóêòóðà ÁÌ îäíîçíà÷íî â³äïîâ³äàº
ïðîöåñó, ÿêèé ìîäåëþºòüñÿ. ²íêîëè öå ïîâ’ÿçàíî ç íåïîâíî-
òîþ äàíèõ ñïîñòåðåæåíü àáî íåäîñòàòíüîþ âèçíà÷åí³ñòþ ïðåä-
ìåòíî¿ îáëàñò³. Çàì³ñòü ïîáóäîâè îäí³º¿ íàéêðàùî¿ ñòðóêòóðè
ÁÌ äåÿê³ àëãîðèòìè â ÿêîñò³ ðåçóëüòàòó âèäàþòü ê³ëüêà ìåðå-
æåâèõ ñòðóêòóð [5, 20].
²íîä³ äîñë³äíèê ìîæå íå ìàòè âñ³º¿ ³íôîðìàö³¿ ïðî ïðîöåñ,
ÿêèé ìîäåëþºòüñÿ. Òîáòî äåÿê³ çì³íí³, ÿê³ âïëèâàþòü íà ïðîöåñ,
â³äñóòí³. ¯õ íàçèâàþòü ïðèõîâàíèìè çì³ííèìè (hidden variables)
àáî ëàòåíòíèì çì³ííèìè (latent variables). ²ñíóþòü àëãîðèòìè åâðè-
ñòè÷íîãî ïîøóêó, ÿê³ íàìàãàþòüñÿ âðàõîâóâàòè òàê³ ïðèõîâàí³ çì³íí³
ïðè ìîäåëþâàíí³ [29, 34]. Äëÿ âèïàäêó, êîëè íàâ÷àëüí³ äàí³ íå-
ïîâí³ àáî ÷àñòèíà ç íèõ íåâ³ðíà (missing data), çàïðîïîíîâàíî
äåê³ëüêà àëãîðèòì³â ñòèñíåííÿ ãðàíèöü (bound and collapse) òà ãðóïà
àëãîðèòì³â, ÿê³ âèêîðèñòîâóþòü çíà÷åííÿ ìàêñèìàëüíîãî ìàòåìà-
òè÷íîãî î÷³êóâàííÿ (expectation maximization, àáî ñêîðî÷åíî EM).
Ìåòîä ñòèñêóâàííÿ ãðàíèöü [25] âèêîíóº ìîäåëþâàííÿ çà
â³äñóòíîñò³ äàíèõ, ïðèïóñêàþ÷è, ùî éìîâ³ðí³ñòü â³äñóòí³õ äàíèõ
ïðèéìຠçíà÷åííÿ â ³íòåðâàë³ â³ä 0 äî 1, òîáòî âèêîíóºòüñÿ
àíàë³ç öüîãî ³íòåðâàëó íà â³äñóòí³ñòü äàíèõ çà íàÿâíîþ ³íôîð-
ìàö³ºþ. ϳñëÿ öüîãî âèêîíóºòüñÿ ñòèñêóâàííÿ ãðàíèöü ³íòåð-
âàëó â òî÷êó øëÿõîì âèêîðèñòàííÿ îïóêëî¿ êîìá³íàö³¿ ç òî÷îê
åêñòðåìóì³â, âèêîðèñòîâóþ÷è ³íôîðìàö³þ ïðî íåïîâí³ äàí³.
Àëãîðèòì ìàêñèì³çàö³¿ ìàòåìàòè÷íîãî î÷³êóâàííÿ çàïðîïî-
íîâàíî ó 1977 ðîö³ â [11]. ³í ïðèçíà÷åíèé äëÿ ïîøóêó ëî-
êàëüíèõ îïòèìàëüíèõ îö³íîê ïàðàìåòð³â çà ìåòîäîì ìàêñè-
ìàëüíî¿ ïðàâäîïîä³áíîñò³. Ãîëîâíà ³äåÿ àëãîðèòìó ïîëÿãຠó
òîìó, ùî çà íàÿâíîñò³ çíà÷åíü óñ³õ âóçë³â, íàâ÷àííÿ (íà êðîö³
M ) áóäå ïðîñòèì, îñê³ëüêè íàÿâíà âñÿ íåîáõ³äíà ³íôîðìàö³ÿ.
Òîìó íà êðîö³ E âèêîíóºòüñÿ îá÷èñëåííÿ çíà÷åííÿ ìàòåìà-
òè÷íîãî î÷³êóâàííÿ ïðàâäîïîä³áíîñò³ (expectation of likelihood),
âêëþ÷àþ÷è ëàòåíòí³ çì³íí³ òàê, í³áè âîíè ñïîñòåð³ãàëèñü. Íà
êðîö³ M ðîáèòüñÿ îá÷èñëåííÿ çíà÷åííÿ ìàêñèìàëüíî¿ ïðàâ-
äîïîä³áíîñò³ ïàðàìåòð³â, âèêîðèñòîâóþ÷è ìàêñèì³çàö³þ çíà-
÷åíü î÷³êóâàíî¿ ïðàâäîïîä³áíîñò³, îòðèìàíèõ íà êðîö³ E . Äàë³
àëãîðèòì çíîâó âèêîíóº êðîê E ç âèêîðèñòàííÿì ïàðàìåòð³â,
îòðèìàíèõ íà êðîö³ M , ³ òàê äàë³.
205
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
Íà îñíîâ³ àëãîðèòìó ìàêñèì³çàö³¿ ìàòåìàòè÷íîãî î÷³êóâàí-
íÿ ðîçðîáëåíî ñåð³þ ïîä³áíèõ àëãîðèòì³â [13, 38]. Òàê, íà-
ïðèêëàä, ñòðóêòóðíèé àëãîðèòì ìàêñèì³çàö³¿ ìàòåìàòè÷íîãî
î÷³êóâàííÿ ïîºäíóº ó ñîá³ ñòàíäàðòíèé àëãîðèòì ìàêñèì³çàö³¿
ìàòåìàòè÷íîãî î÷³êóâàííÿ, ùî îïòèì³çóº ïàðàìåòðè, òà àëãî-
ðèòì ñòðóêòóðíîãî ïîøóêó ìîäåë³ â³äáîðó. Öåé àëãîðèòì áóäóº
ìåðåæ³, ´ðóíòóþ÷èñü íà øòðàôíèõ ³ìîâ³ðí³ñíèõ çíà÷åííÿõ, ÿê³
âêëþ÷àþòü çíà÷åííÿ, îòðèìàí³ çà äîïîìîãîþ áàéºñ³âñüêîãî
³íôîðìàö³éíîãî êðèòåð³þ, ïðèíöèïó ì³í³ìàëüíî¿ äîâæèíè
îïèñó, à òàêîæ çíà÷åííÿ ³íøèõ êðèòåð³¿â.
Ïðèêëàä çàñòîñóâàííÿ áàéºñ³âñüêèõ ìåðåæ äëÿ ñêîðèíãîâîãî
àíàë³çó ñòàíó ïîçè÷àëüíèêà êðåäèòó ó áàíê³âñüê³é óñòàíîâ³. Íà
ðèñ. 5 ïîêàçàíà ñêîðèíãîâà ìîäåëü ó âèãëÿä³ ÁÌ, ïîáóäîâàíà
çà ³òåðàö³éíèì åâðèñòè÷íèì ìåòîäîì, ÿêèé ´ðóíòóºòüñÿ íà
âèêîðèñòàíí³ îö³íêè âçàºìíî¿ ³íôîðìàö³¿ ì³æ âåðøèíàìè òà
ôóíêö³¿ îïèñó ì³í³ìàëüíîþ äîâæèíîþ.
Ðèñ. 5. Ñèñòåìà êðåäèòíîãî ñêîðèíãó ó âèãëÿä³ ÁÌ.
Ó òàáë. 1 íàâåäåíî äåñÿòü çìîäåëüîâàíèõ ñèòóàö³é ³ç âèêî-
ðèñòàííÿì ìåòîäó ïîáóäîâè òî÷íîãî ³ìîâ³ðí³ñíîãî âèñíîâêó â
ÁÌ çà íàâ÷àëüíèìè äàíèìè.
Ïîáóäîâàí³é ñêîðèíãîâ³é ìîäåë³ ó âèãëÿä³ ÁÌ (ðèñ. 5) â³äïî-
â³äàþòü òàê³ ñòàòèñòè÷í³ õàðàêòåðèñòèêè: ïîõèáêà ïåðøîãî ðîäó —
115 (çà ê³ëüê³ñòþ â³äïîâ³äíèõ âèïàäê³â); ïîõèáêà äðóãîãî ðîäó
206
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
Номер
ситуа-
ції
Інстанційовані вершини (апріорна інформація,
стосовно клієнта)
Ймовірність того,
що клієнт
поверне кредит
1 Стать = «Чоловік» 92,08%
2 Стать = «Жінка» 97,55%
3 Поручитель = «Так» 99,06%
4 Поручитель = «Ні» 87,98%
5 Вік < 32 років та Сімейний стан = «Самотній» та
Сума кредиту > 5000 76,92%
6 Тип трудозайнятості =«Працівник банку» та
Сімейний стан = «Одружений» 94,66%
7 Освіта = «Вища» та Кількість дітей = «один» та
Чоловік (дружина) працює = «Так» 97,39%
8 Освіта = «Середня» та Кількість дітей = «немає»
та Чоловік (дружина) працює = «Ні» та
Поручитель = «Ні» та Сума кредиту > 2500
69,78%
9 Стать = «Чоловік» та Сімейний стан = «Удівець»
та Освіта = «Середня спеціальна» 78,95%
10 Стать = « Жінка» та Сімейний стан = «Удівець» та
Освіта = «Середня спеціальна» 98,81%
— 157; çàãàëüíà ïîõèáêà — 272; çàãàëüíà òî÷í³ñòü ìîäåë³ —
0,918; ïîõèáêà êëàñèô³êàö³¿ — 15%.
Àíàë³ç ðåçóëüòàò³â. Ó òàáëèöÿõ 2 ³ 3 íàâåäåíî ñòàòèñòè÷í³ ³
ïðîãíîçí³ õàðàêòåðèñòèêè, îòðèìàí³ ïðè âèêîðèñòàíí³ â³äïî-
â³äíèõ ìåòîä³â ²ÀÄ äëÿ ïîáóäîâè ñêîðèíãîâèõ ìîäåëåé îö³íþ-
âàííÿ êðåäèòîñïðîìîæíîñò³ ô³çè÷íèõ îñ³á. Ïðè êëàñèô³êàö³¿
ðîçãëÿäàëîñÿ çíà÷åííÿ ïîðîãó â 90%, òîáòî ÿêùî éìîâ³ðí³ñòü
ïîâåðíåííÿ êðåäèòó íèæ÷å 90%, òî ê볺íò êëàñèô³êóºòüñÿ ÿê
íåêðåäèòîñïðîìîæíèé.
Íàéêðàù³ ðåçóëüòàòè îòðèìàíî çà ìåòîäîì äåðåâ ð³øåíü
CHA²D òà êëàñòåðíîãî àíàë³çó k-ñåðåäí³õ. Äëÿ öèõ ìåòîä³â
â³äñîòîê ïîõèáîê êëàñèô³êàö³¿ äîð³âíþº 10, à öå îçíà÷àº, ùî
³ç 100 âèäàíèõ êðåäèò³â 10 áóëè êëàñèô³êîâàí³ íåâ³ðíî.
Á³ëüø³ñòü ñêîðèíãîâèõ ñèñòåì, îòðèìàíèõ çà ³íøèìè ìåòîäà-
ìè ²ÀÄ, äàëè ïîõèáêó êëàñèô³êàö³¿ 15—20%. Çà êðèòåð³ºì
çàãàëüíî¿ òî÷íîñò³ ìîäåë³ íàéêðàùèé ðåçóëüòàò ³ç çíà÷åííÿì
0,949 îòðèìàíî çà ìîäåëëþ ëîã³ò, à ñåðåä ìåòîä³â êëàñòåðíîãî
àíàë³çó — áëèæíüîãî ñóñ³äà ³ç ïîïåðåäíüîþ ôàêòîðèçàö³ºþ.
Òàáëèöÿ 1 — Äàí³ ñòîñîâíî äåñÿòè çìîäåëüîâàíèõ ñèòóàö³é
207
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
Òàáëèöÿ 2
Òàáëèöÿ 3
Кількість нейронів у шарі Назва алгоритму
побудови ШНМ Вхідних Скритих Вихідних
Точність
моделі
Процент
похибок при
класифікації
Back propagation 9 3 1 0,9 20%
Back propagation 9 5 1 0,91 15%
Resilient
propagation 9 3 1 0,91 15%
Resilient
propagation 9 5 1 0,9 15%
Похибка
Назва методу 1-го
роду
2-го
роду
Загаль-
на
Точність
моделі
Процент
похибок при
класифікації
За умови 90% ймовірності повернення кредиту
CHAID 76 275 351 0.895 10%
CART 68 299 367 0.891 20%
QUEST 47 546 593 0.823 15%
Найкращі ієрархічні методи кластеризації
з використанням квадратичної міри Евкліда
Зважений центроїдний 174 93 267 0.92 15%
Варда 146 296 442 0.868 15%
Найкращі ієрархічні методи кластеризації
із використанням коефіцієнта Пірсона
Зв'язок між групами 177 26 203 0.939 20%
Зв'язок всередині груп 171 370 541 0.838 20%
Віддалених сусідів 177 71 248 0.926 20%
Медіан 177 26 203 0.939 15%
Неієрархічні методи кластеризації
К-середніх для ітерацій та
класифікації 116 564 680 0.797 10%
К-середніх тільки для
класифікації 172 119 291 0.914 15%
Двокроковий 78 1245 1323 0.605 45%
Найкращий ієрархічний метод з попередньою факторизацією
Ближнього сусіда 178 1 179 0.947 15%
Лінійна ймовірнісна
модель 175 0 175 0,947 15%
Логіт модель 163 6 169 0,949 15%
Пробіт модель 168 2 170 0,948 15%
Байєсівська мережа 115 157 272 0,918 15%
208
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
Âèñíîâêè
Âèêîíàíî îãëÿä ìåòîä³â ïîáóäîâè (íàâ÷àííÿ) ñòðóêòóðè ìå-
ðåæ Áàéºñà. Ïîêàçàíî, ùî íà ñüîãîäí³ ³ñíóº ìíîæèíà ìåòîä³â
ñòðóêòóðíîãî íàâ÷àííÿ ÌÁ òà êðèòåð³¿â îïòèì³çàö³¿, ÿê³ ìîæíà
ç óñï³õîì âèêîðèñòàòè ïðè ¿õ ïîáóäîâ³. Íàÿâí³ñòü âåëèêî¿ ê³ëüêîñò³
ìåòîä³â ôîðìóâàííÿ ñòðóêòóðè ÌÁ ñâ³ä÷èòü ïðî òå, ùî ³ñíóþòü
ïðîáëåìè ñòîñîâíî ðîçâ’ÿçàííÿ ö³º¿ çàäà÷³, ÿê³ íåìîæëèâî ðîç-
â’ÿçàòè çà äîïîìîãîþ îäíîãî-äâîõ ìåòîä³â. Öå ïðîáëåìè, ïîâ’ÿ-
çàí³ ³ç âèñîêîþ ðîçì³ðí³ñòþ çàäà÷, íàÿâí³ñòþ çì³ííèõ ð³çíèõ
òèï³â, íåÿê³ñíèìè äàíèìè òà âèìîãàìè äî ÿêîñò³ ðåçóëüòàòó —
³ìîâ³ðí³ñíîãî âèñíîâêó. Òîìó âèá³ð ìåòîäó íàâ÷àííÿ ñòðóêòóðè
ìåðåæ³ ïîâèíåí ´ðóíòóâàòèñü íà äîêëàäíîìó ïîãëèáëåíîìó àíàë³ç³
çàäà÷³, ÿêà ðîçâ’ÿçóºòüñÿ çà äîïîìîãîþ ìåðåæ³, òà ìîæëèâîñò³
îòðèìàííÿ äîñòîâ³ðíèõ åêñïåðòíèõ ³ ñòàòèñòè÷íèõ äàíèõ. Âðàõî-
âóþ÷è ìîæëèâó íåîäíîçíà÷í³ñòü îòðèìàíîãî ðîçâ’ÿçêó, ñòðóêòó-
ðó ìåðåæ³ íåîáõ³äíî áóäóâàòè çà äâîìà-òðüîìà àëüòåðíàòèâíèìè
ìåòîäàìè ³ âèáðàòè ïîò³ì êðàùèé ðîçâ’ÿçîê. Ñåðåä ìåòîä³â ²ÀÄ,
âèêîðèñòàíèõ äëÿ ïîáóäîâè ñêîðèíãîâèõ ìîäåëåé, íàéêðàù³
ðåçóëüòàòè îòðèìàí³ çà äîïîìîãîþ äåðåâà ð³øåíü ìåòîä Chaid,
ìåòîäó êëàñòåðíîãî àíàë³çó k-ñåðåäí³õ òà ÁÌ. Òàêèì ÷èíîì
ï³äòâåðäæåíà âèñîêà åôåêòèâí³ñòü âèêîðèñòàííÿ ìåòîä³â ²ÀÄ äëÿ
àíàë³çó òà ìîäåëþâàííÿ åêîíîìåòðè÷íèõ ïðîöåñ³â ÿê íåîáõ³äíèé
êðîê ðîçâ’ÿçàííÿ âàæëèâî¿ ïðîáëåìè — çàáåçïå÷åííÿ ñòàá³ëü-
íîñò³ òà ô³íàíñîâî¿ áåçïåêè áàíê³âñüêî¿ ñèñòåìè Óêðà¿íè.
Ó ìàéáóòí³õ äîñë³äæåííÿõ äîö³ëüíî àâòîìàòèçóâàòè ïðîöåñ
ïîáóäîâè ñòðóêòóðè ìåðåæ³ çà äåÿêîþ ìíîæèíîþ àëüòåðíà-
òèâíèõ ìåòîä³â çà óìîâè ðîçáèòòÿ çàãàëüíî¿ âèá³ðêè äàíèõ íà
íàâ÷àëüíó òà ïåðåâ³ðî÷íó. Ïðè öüîìó íåîáõ³äíî çàáåçïå÷èòè
âèá³ð êðàùî¿ ³ç ñòðóêòóð çà êðèòåð³ÿìè ñòðóêòóðíî¿ ð³çíèö³
àáî ïåðåõðåñíî¿ åíòðîﳿ. Öå äàñòü ìîæëèâ³ñòü óíèêíóòè ìîæ-
ëèâî¿ íåîäíîçíà÷íîñò³ âèáîðó.
* * *
1. Ìåòîäû è ìîäåëè àíàëèçà äàííûõ OLAP è Data Mining /
À.À. Áàðñåãÿí, Ì.Ñ. Êóïðèÿíîâ, Â.Â. Ñòåïàíåíêî, È.È. Õîëîä.
— ÑÏá: ÁÂÕ-Ïåòåðáóðã, 2004. — 336 ñ.
209
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
2. ×óáóêîâà È.À. Data Mining / È.À. ×óáóêîâà. — Ì.: Áèíîì
ËÁÇ, 2008. — 384 ñ.
3. Acid S. and Campos L. Benedict: an algorithm for learning
probabilistic belief networks / S. Acid and L. Campos // Proceedings
of the sixth international conference IPMU’96, Granada, Spain. —
1996. — P. 979—984.
4. Buntine W. L. A Guide to the literature on learning probabilistic
networks from data / W. L. Buntine // IEEE Transactions on knowledge
and data engineering. — Piscataway: IEEE Educational Activities
Department, 1996. — Vol. 8, ¹ 2. — P. 195—210.
5. Buntine W. Operations for learning with graphical models /
W. Buntine // Journal of artificial intelligence research (JAIR). —
Menlo Park: AAAI Press, 1994. — 2. — P. 159.
6. Cheng J. Learning belief networks from data: an information
theory based approach / J. Cheng, D.A. Bell and W. Liu // Proceedings
of the sixth international conference on information and knowledge
management (CIKM 1997), Las Vegas (Nevada), November 10—14.
— 1997. — P. 325—331.
7. Learning Bayesian networks from data: an information-theory
based approach / J. Cheng, R. Greiner, J. Kelly, D.A. Bell and W. Liu
// The artificial intelligence journal (AIJ). — 2002. — 137. — P. 43—90.
8. Chow C.K. Approximating discrete probability distributions with
dependence trees / C.K. Chow, C.N. Liu // IEE Transactions on
information theory, May 1968. — Vol. IT-14, ¹3. — P. 462—467.
9. Chu T. and Xiang Y. Exploring parallelism in learning belief
networks / T. Chu and Y. Xiang // Proceedings of the thirteenth
international conference on Uncertainty in Artificial Intelligence
(UAI’97), Providence, Rhode Island, USA, 1—3 August, 1997. —
SF.: Morgan Kaufmann, 1997. — P. 90—98.
10. Cooper G. A Bayesian method for the induction of probabilistic
networks from data / G. Cooper, E. Herskovits // Machine Learning,
1992. — 9. — P. 309—347.
11. Dempster A.P. Maximum likelihood from incomplete data via
the EM algorithm / A.P. Dempster, N.M. Laird and D.B. Rubin //
Journal of the Royal Statistical Society. — 1977. — Vol. 39, ¹ 1. —
P. 1—38.
12. Friedman N. Learning Bayesian networks with local structure /
N. Friedman and M. Goldszmidt // Proceedings of the twelfth
210
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
international conference on Uncertainty in Artificial Intelligence
(UAI’96), Portland, Oregon, USA, 1—4 August, 1996. — SF.: Morgan
Kaufmann, 1996. — P. 252—262.
13. Friedman N. The Bayesian structural EM algorithm /
N. Friedman // Fourteenth conference on Uncertainty in Artificial
Intelligence (UAI’98), Madison, Wisconsin, USA, 24—26 July, 1998.
— SF.: Morgan Kaufmann, 1998. — P. 129—138.
14. Fung R.M. Constructor: a system for the induction of
probabilistic models / R.M. Fung, S.L. Crawford // Proceedings of
the seventh national conference on artificial intelligence (AAAI-90). —
1990. — P. 762—769.
15.Heckerman D. Learning Bayesian networks: the combination of
knowledge and statistical data / D. Heckerman, D. Geiger and
D. Chickering // Technical report MSR-TR-94-09, Microsoft Research,
March 1994. — 53 p.
16. Kutato: an entropy-driven system for construction of
probabilistic expert systems from databases / E. Herskovits and
G. Cooper // Proceedings of the sixth international conference on
Uncertainty in Artificial Intelligence (UAI’90), Cambridge,
Massachusetts, USA, 27—29 July, — NY.: Elsevier science, 1991. —
P. 54—62.
17. Jouffe L. and Munteanu P. New search strategies for learning
Bayesian networks / L. Jouffe and P. Munteanu // Proceedings of
tenth international symposium on applied stochastic models and data
analysis (ASMDA 2001). — Compiegne (France). 12—15 June 2001.
— Vol. 2 — P. 591—596.
18. Lam W. Learning Bayesian belief networks: an approach based
on the MDL principle / W. Lam and F. Bacchus // Computational
Intelligence, July 1994. — Vol. 10, ¹ 4. — P. 269—293.
19. Liu R. F. Learning on Bayesian networks / R. F. Liu and
R. Soetjipto // Report for class project in course MIT 6.825: techniques
in artificial intelligence, the MIT computer science and artificial
intelligence laboratory, Massachusetts Institute of Technology,
Cambridge, December 2004. — 39 p.
20. Madigan, D. Model selection and accounting for model
uncertainty in graphical models using Occam’s window / D. Madigan
and A. Raftery // Journal of the American statistical association (JASA).
— 1994. — 89. P. 1535—1546.
211
ÏðåðîìàíòèçìÐîçä³ë 3. Íàóêîâî-òåõíîëîã³÷íà áåçïåêà òà ³íòåëåêòóàëüí³ ðåñóðñè
21. A brief introduction to graphical models and Bayesian networks
/ K. Murphy // Technical report 2001-5-10, department of computer
science, University of British Columbia, Canada, May 2001. — 19 p.
22. Murphy K.P. Dynamic Bayesian networks: representation,
inference and learning / K.P. Murphy // A PhD dissertation, University
of California, Berkeley. — 2002. — 225 p.
23. Pearl J. Probabilistic reasoning in intelligent systems: networks
of plausible inference / J. Pearl. — SF.: Morgan Kaufmann, September
1988. — 552 p.
24. Rebane G. The recovery of causal poly-trees from statistical
data / G. Rebane // International journal of approximate reasoning,
July 1988. — Vol. 2, ¹ 3. — P. 175—182
25. Sebastiani P. Bayesian inference with missing data using bound
and collapse / P. Sebastiani and M. Ramoni // Journal of
Computational and Graphical Statistics, December 2000. — Vol. 9,
¹ 4. — P. 779—800.
26. Singh M. Construction of Bayesian network structures from
data: a brief survey and an efficient algorithm / M. Singh and
M. Valtorta // International journal of approximate reasoning, 1995.
—12. — P. 111—131.
27. Spirtes P. An algorithm for fast recovery of sparse causal graphs
/ P. Spirtes, C. Glymour and R. Scheines // Social science computer
review (SSCORE). — 1991. — 9. — P. 62—72.
28. Spirtes P., Glymour C. and Scheines R. Causality from
probability / P. Spirtes, C. Glymour and R. Scheines // Proceedings
of advanced computing for the social sciences, Williamsburgh. — 1990.
— P. 107—121.
29.Spirtes P. Heuristic greedy search algorithms for latent variable
models / P. Spirtes, T. Richardson and C. Meek // Proceedings of
artificial intelligence and sta ñòðóêòóðíèé àëãîðèòì ìàêñèì³çàö³¿
ìàòåìàòè÷íîãî î÷³êóâàííÿ tistics (AI & Statistics 1997), Fort
Lauderdale (Florida). — 1997. — P. 481—488.
30. Spirtes, P. Causation, prediction and search / P. Spirtes,
C. Glymour and R. Scheines // Adaptive computation and machine
learning, MIT press, January 2001. — 565 p.
31. Srinivas S. Automated construction of sparse Bayesian networks
from unstructured probabilistic models and domain information /
S. Srinivas, S. Russell and A. Agogino // Proceedings of the fifth
212
Åêîëîã³÷íà áåçïåêà òà ïðèðîäîêîðèñòóâàííÿ
annual conference on Uncertainty in Artificial Intelligence (UAI’90),
Cambridge, Massachusetts, USA, 27—29 July, 1990. — NY.: Elsevier
science, 1991. — P. 295—308.
32. Suzuki J. Learning Bayesian belief networks based on the MDL
principle: an efficient algorithm using the branch and bound technique /
J. Suzuki // IEICE Transaction on information and systems, February
1999. — P. 356—367.
33. Suzuki J. Learning Bayesian belief networks based on the
minimum description length principle: basic properties / J. Suzuki //
IEICE Transaction. on fundamentals, September 1999. — Vol. E82-A,
¹ 9. — 9 p.
34. Verma T. Equivalence and synthesis of causal models /
T. Verma and J. Pearl // Proceedings of the sixth international
conference on Uncertainty in Artificial Intelligence (UAI’90),
Cambridge, Massachusetts, USA, 27—29 July, 1990. — NY.: Elsevier
science, 1991. — P. 255—270.
35. Wallace C. Causal discovery via MML / C. Wallace, K. Korb
and H. Dai // Proceedings of the thirteenth international conference
on machine learning (ICML’96), Bari, Italy. — SF.: Morgan Kaufmann,
1996. — P. 516—524.
36. Wermuth N. Graphical and recursive models for contingency
tables / N. Wermuth and S. Lauritzen // Biometrika, December 1983.
— Vol. 70, ¹3. — P. 537—552.
37. Wong, S. Construction of a Markov network from data for
probabilistic inference / S. Wong and Y. Xiang// Third International
workshop on rough sets and soft computing (RSSC’94), San Jose
(California). — 1994. — P. 562—569.
38. Zhang Z. Surrogate maximization (minimization) algorithms
for AdaBoost and the logistic regression model / Z. Zhang, J. Kwok
and D. Yeung // Proceedings of the twenty-first international conference
on machine learning (ICML 2004). — 2004. — 117 p.
39. Zweig G.G. Speech recognition with dynamic Bayesian networks /
G.G. Zweig // Proceedings of the fifteenth conference on artificial
intelligence, Madison (Wisconsin US). — 1998. — P. 173—180.
Îòðèìàíî: 7.06.2011 ð.
|