Adaptive ensemble decision integration for indicator of resource security: methodology and statistical validation of stability
Ensuring effective decision support in complex distributed organizational systems (especially in national security and defense planning) requires reliable classification methods capable of rapid diagnosis of resource states and risks to strategic interests. The effectiveness of a resource security i...
Збережено в:
| Дата: | 2026 |
|---|---|
| Автори: | , |
| Формат: | Стаття |
| Мова: | Українська |
| Опубліковано: |
PROBLEMS IN PROGRAMMING
2026
|
| Теми: | |
| Онлайн доступ: | https://pp.isofts.kiev.ua/index.php/ojs1/article/view/879 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Problems in programming |
| Завантажити файл: | |
Репозитарії
Problems in programming| _version_ | 1859477394420662272 |
|---|---|
| author | Ilyina, O.P. Skybyk, S.Ya. |
| author_facet | Ilyina, O.P. Skybyk, S.Ya. |
| author_sort | Ilyina, O.P. |
| baseUrl_str | https://pp.isofts.kiev.ua/index.php/ojs1/oai |
| collection | OJS |
| datestamp_date | 2026-02-12T15:27:30Z |
| description | Ensuring effective decision support in complex distributed organizational systems (especially in national security and defense planning) requires reliable classification methods capable of rapid diagnosis of resource states and risks to strategic interests. The effectiveness of a resource security indicator (RSI) built on machine learning methods critically depends on the stability and reliability of integrated predictions under conditions typical of this domain: significant class imbalance (where missing a negative state is critical), limited data volume, log normal feature distribution with "long tails", and noise components that reduce the stability of individual classifiers. To address these challenges, an adaptive ensemble integration mechanism (RSI) was developed, implementing weighted soft voting of models (NB, SVM, RF, kNN, LR) with unified probability calibration. The central element is a composite dynamic quality metric (KQ), which combines 1 (prioritizing the minority class), , and , adapting their weights based on correlation. Trust coefficients (KDR) are integrated to adjust the influence of models depending on their vulnerability to data properties. Algorithm validation was performed on synthetic data simulating log-normal distribution and lag effects of real-world conditions. A large-scale experiment (250 runs, paired design) confirmed high statistical significance ( 0.001 by Wilcoxon test) of RSI superiority over the best single classifier (Random Forest) across all metrics (Δ, Δ1, Δ). The effect size (Cohen's ≥ 1.41) indicates large practical value. The results demonstrate that adaptive integration ensures stability and reliability of risk diagnosis, critically necessary for security applications.Problems in programming 2025; 4: 88-101 |
| first_indexed | 2026-03-12T17:16:38Z |
| format | Article |
| fulltext |
88
Інформаційні системи організаційного управління
© О.П. Ільїна, С.Я. Скибик, 2025
ISSN 1727-4907. Проблеми програмування. 2025. №4
УДК 004.855, 519.86 https://doi.org/10.15407/pp2025.04.088
О.П. Ільїна, С.Я. Скибик
АДАПТИВНА АНСАМБЛЕВА ІНТЕГРАЦІЯ РІШЕНЬ ДЛЯ
ІНДИКАТОРА РЕСУРСНОЇ БЕЗПЕКИ: МЕТОДОЛОГІЯ
ТА СТАТИСТИЧНА ВАЛІДАЦІЯ СТАБІЛЬНОСТІ
Забезпечення ефективної підтримки ухвалення рішень у складних розподілених організаційних системах
(особливо у сфері національної безпеки та оборонного планування) вимагає розробки надійних методів
класифікації, здатних оперативно діагностувати стани ресурсів та ризики стратегічним інтересам.
Ефективність індикатора ресурсної безпеки (RSI), побудованого на базі методів машинного навчання,
критично залежить від стабільності та достовірності інтегрованих прогнозів, особливо в умовах,
характерних для предметної області: значний дисбаланс класів (де помилка пропуску негативного стану
є критичною), обмежений обсяг даних, логнормальний розподіл ознак із «довгими хвостами», та
наявність шумових компонентів, що знижує стабільність окремих класифікаторів. Для вирішення цього
розроблено адаптивний механізм ансамблевої інтеграції (RSI), що реалізує зважене м’яке голосування
моделей (NB, SVM, RF, kNN, LR) з уніфікованим калібруванням імовірностей. Центральним елементом
є композитна динамічна метрика якості (KQ), яка поєднує 𝐹𝐹1𝑛𝑛𝑛𝑛𝑛𝑛 (пріоритет міноритарного класу), 𝑀𝑀𝑀𝑀𝑀𝑀
та 𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛, адаптуючи їхні ваги на основі кореляції. Інтегровано коефіцієнти довіри (KDR) для
корекції впливу моделей залежно від їх вразливості до властивостей даних. Валідацію алгоритму
проведено на синтетичних даних, що імітують логнормальний розподіл та лагові ефекти реальних умов.
Масштабний експеримент (250 прогонів, парний дизайн) підтвердив високу статистичну значущість
(𝐾𝐾 < 0.001 за критерієм Вілкоксона) переваги RSI над найкращим окремим класифікатором (Random
Forest) за всіма метриками (Δ𝐾𝐾𝐾𝐾, Δ𝐹𝐹1𝑛𝑛𝑛𝑛𝑛𝑛, Δ𝑅𝑅𝑅𝑅𝑅𝑅𝐾𝐾𝑅𝑅𝑅𝑅𝑛𝑛𝑛𝑛𝑛𝑛). Розмір ефекту (𝑑𝑑-Коена ≥ 1.41) свідчить про
велику практичну цінність. Результати доводять, що адаптивна інтеграція забезпечує стабільність та
надійність діагностики ризиків, що критично необхідні для безпекових застосувань.
Ключові слова: класифікація методами машинного навчання, ансамблеве навчання, адаптивна метрика
якості, дисбаланс класів, м’яке голосування, статистична валідація, підтримка стратегічних рішень.
O.P. Ilyina, S.Ya. Skybyk
ADAPTIVE ENSEMBLE DECISION INTEGRATION FOR
INDICATOR OF RESOURCE SECURITY: METHODOLOGY AND
STATISTICAL VALIDATION OF STABILITY
Ensuring effective decision support in complex distributed organizational systems (especially in national security
and defense planning) requires reliable classification methods capable of rapid diagnosis of resource states and
risks to strategic interests. The effectiveness of a resource security indicator (RSI) built on machine learning
methods critically depends on the stability and reliability of integrated predictions under conditions typical of
this domain: significant class imbalance (where missing a negative state is critical), limited data volume, log-
normal feature distribution with "long tails", and noise components that reduce the stability of individual
classifiers. To address these challenges, an adaptive ensemble integration mechanism (RSI) was developed,
implementing weighted soft voting of models (NB, SVM, RF, kNN, LR) with unified probability calibration.
The central element is a composite dynamic quality metric (KQ), which combines 𝐹𝐹1𝑛𝑛𝑛𝑛𝑛𝑛 (prioritizing the
minority class), 𝑀𝑀𝑀𝑀𝑀𝑀, and 𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛, adapting their weights based on correlation. Trust coefficients (KDR)
are integrated to adjust the influence of models depending on their vulnerability to data properties. Algorithm
validation was performed on synthetic data simulating log-normal distribution and lag effects of real-world
conditions. A large-scale experiment (250 runs, paired design) confirmed high statistical significance (𝐾𝐾 <
0.001 by Wilcoxon test) of RSI superiority over the best single classifier (Random Forest) across all metrics
(Δ𝐾𝐾𝐾𝐾, Δ𝐹𝐹1𝑛𝑛𝑛𝑛𝑛𝑛, Δ𝑅𝑅𝑅𝑅𝑅𝑅𝐾𝐾𝑅𝑅𝑅𝑅𝑛𝑛𝑛𝑛𝑛𝑛). The effect size (Cohen's 𝑑𝑑 ≥ 1.41) indicates large practical value. The results
demonstrate that adaptive integration ensures stability and reliability of risk diagnosis, critically necessary for
security applications.
Keywords: machine-learning classification, ensemble training, adaptive quality metric, class imbalance, soft
voting, statistical validation, strategic decision support.
89
Інформаційні системи організаційного управління
Вступ
Для забезпечення життєздатності та
захисту інтересів розподілених організа-
ційних систем, особливо в умовах динаміч-
ного середовища воєнної сфери національ-
ної безпеки та оборонного планування,
критично необхідна наявність інструментів
експрес-діагностики ресурсних загроз.
Розглянуте в [1] моделювання індикатора
ресурсної безпеки (Resource Security
Indicator — RSI) ґрунтується на сучасних
методах машинного навчання (ML-
класифікації), проте його ефективність на
практиці стикається з низкою фундамен-
тальних викликів, зумовлених специфікою
вхідних даних. До таких викликів нале-
жать: значний дисбаланс класів на користь
позитивного (нормального) стану, обмеже-
ний обсяг спостережень через специфіку
доменної області, а також складність
розподілів ознак. Значення останніх
обмежені як доля від певного нормативу,
демонструють скупчення навколо серед-
нього або медіани, а також наявність
вагомих «хвостів» внаслідок наявних стра-
тегій постачання, що ускладнює коректне
та ефективне оперування ними.
У цих умовах надійність будь-якого
окремого класифікаційного механізму
ставиться під сумнів, оскільки різні моделі
можуть демонструвати нестабільну пове-
дінку на різних підмножинах даних. Це
робить актуальним дослідження стабіль-
ності якості класифікації та розробку
інтеграційних підходів, здатних компен-
сувати слабкі сторони окремих методів.
Динаміка змін у середовищі безпеки вима-
гає інструментів, які не лише надають точ-
ковий прогноз, а й адаптуються до змінних
характеристик даних, мінімізуючи ризики
пропуску загроз (False Negative), які
можуть мати катастрофічні наслідки для
стратегічного планування.
1. Аналіз літературних даних і
постановка проблеми
Попередні етапи досліджень
дозволили сформувати базовий апарат
побудови RSI, орієнтований на оперування
за умов невизначеності, що реалізує
ансамблеву інтеграцію гетерогенних
класифікаторів [1]. Однак детальний аналіз
предметної області та попередніх резуль-
татів виявив необхідність орієнтувати
алгоритм на доменну специфіку [2], [3]
даних і пріоритетів. Це зумовило відмову
від дискретного (жорсткого) голосування,
де кожна модель має один рівноправний
голос незалежно від ступеня її впевненості.
Такий підхід втрачає критично важливу
інформацію про ймовірнісний розподіл
прогнозів [4]. Крім того, використання
єдиної статичної метрики якості (напри-
клад, тільки F1 або Каппа Коена) є
неадекватним для даних з високим та
змінним дисбалансом. Статичні метрики
часто ігнорують внутрішню кореляцію між
критеріями якості, що може призводити до
зміщених оцінок та «перенавчання» під
мажоритарний клас, особливо коли дані
містять шум або аномальні викиди.
Проблематика інтеграції рішень для
RSI зосереджена навколо факторів, харак-
терних для предметної області:
• Різнорідність ознак та склад-
ність розподілів: Поєднання логнор-
мальних ресурсних показників та дискрет-
них лагових ознак ускладнює навчання
стандартних моделей, вимагаючи специ-
фічного препроцесингу.
• Критичність гіподіагностики: В
умовах безпеки вартість пропуску нега-
тивного прецеденту (загрози) є неспівмірно
вищою за вартість хибної тривоги, що
вимагає жорсткої пріоритезації метрик для
міноритарного класу (негативний стан).
• Залежність моделей від
властивостей даних: Згідно з теоремою No
Free Lunch [5], не існує універсального
класифікатора, оптимального для всіх сце-
наріїв розподілу даних. Це вимагає меха-
нізму, який би динамічно враховував враз-
ливість кожної моделі до поточних умов.
Постановка проблеми полягає у необ-
хідності розробки та емпіричної валідації
адаптивного механізму інтеграції рішень,
який забезпечить стійкість, достовірність та
інтерпретованість прогнозу в умовах
високої невизначеності, де ціна помилки є
критичною.
90
Інформаційні системи організаційного управління
2. Мета і завдання дослідження
Мета дослідження: Розробити та
статистично валідувати адаптивний ме-
ханізм ансамблевої інтеграції рішень (RSI),
здатний забезпечити стійкість і надійність
оцінки в умовах, характерних для даних
ресурсної безпеки (обмеженість вибірки,
наявність шумів, значний дисбаланс
класів).
Завдання дослідження:
1. Розробити механізм зваженого
м'якого голосування (Weighted Soft Voting),
що включає уніфіковане калібрування
імовірностей для забезпечення мате-
матичної коректності та порівнянності
виходів різнорідних моделей ансамблю.
2. Сформувати динамічну ком-
позитну метрику якості (KQ), яка авто-
матично адаптує ваги своїх компонентів до
характеристик конкретного набору спос-
тережень, мінімізуючи вплив мультиколі-
неарності критеріїв та акцентуючи увагу на
виявленні загроз.
3. Статистично підтвердити пере-
вагу адаптивного ансамблю RSI над
найкращим окремим класифікатором (RF)
через масштабний експеримент із вико-
ристанням парного дизайну та оцінки
розміру ефекту.
3. Методи і матеріали досліджень
Дослідження ґрунтується на методах
ансамблевого машинного навчання, теорії
математичної статистики, методах
обчислювального експерименту на основі
генерації синтетичних даних та розробці
адаптивних метрик якості. Програмна
реалізація алгоритму виконана в
середовищі R v4.5.1 “Great Square Root”
(реліз 13.06.2025) із використанням пакетів
`caret` (v7.0-1, оновлено 10.12.2024),
`ranger` (v0.17.0, оновлено 08.11.2024),
`e1071` (v1.7-16, оновлено 16.09.2024) та
`class` (v7.3-23, оновлено 01.01.2025), що
мають актуальні стабільні релізи станом на
кінець 2025 року та забезпечують сучасні
програмні реалізації використовуваних
класифікаційних алгоритмів. Детальний
опис швидкої реалізації Random Forest у
пакеті `ranger` наведено в [6], а сучасні
підходи до побудови та налаштування
моделей із використанням `caret` систе-
матизовано в [7].
Архітектура гетерогенного
ансамблю. RSI використовує гетерогенний
набір з п'яти базових моделей: Naive Bayes
(NB), Support Vector Machine (SVM),
Random Forest (RF), k-Nearest Neighbors
(kNN), та Logistic Regression (LR). Вибір
саме цих алгоритмів обумовлений необ-
хідністю забезпечення максимальної різно-
манітності помилок, що розглядається як
ключова умова ефективності ансамблів [4],
[8]. Наприклад, NB ефективний для неза-
лежних ознак і швидкого навчання, SVM
добре працює з високорозмірними просто-
рами та знаходить оптимальні розділяючі
гіперплощини. RF забезпечує робастність
до шуму та викидів, kNN ефективний для
виявлення локальних структур даних, а LR
надає базову лінійну апроксимацію ймовір-
ностей. Таке поєднання дозволяє компен-
сувати слабкі сторони одних моделей силь-
ними сторонами інших, створюючи синер-
гетичний ефект. Деталі конфігурації та
гіперпараметрів цих моделей були пред-
ставлені в попередній роботі [1], а уза-
гальнений огляд ансамблевого навчання
подано в [8].
Доменно-специфічні фактори.
Алгоритм RSI проєктувався як відповідь на
низку викликів, характерних для ресурсних
даних індикатора та контексту ухвалення
рішень. Ці виклики систематизовано у
вигляді множини факторів Ф1–Ф11:
Ф1. Різнорідність ознак за типами
(ресурсні, лагові, службові) та шкалами
вимірювання.
Ф2. Складність розподілів (обме-
женість області, скупченість, правосто-
ронні «хвости»).
Ф3. Залежність поточного стану
від ресурсної передісторії (інерційність
процесів, часові лаги).
Ф4. Високий дисбаланс на користь
позитивного (нормального) класу.
Ф5. Критичність гіподіагностики
незадовільних станів (пропуск негативних
станів є набагато небезпечнішим, ніж хибна
тривога).
91
Інформаційні системи організаційного управління
Ф6. Наявність нефіксованих зов-
нішніх факторів впливу, які можуть змі-
нювати розподіли без прямого спос-
тереження.
Ф7. Неоднорідність умов спосте-
режень у часі та між різними підмно-
жинами даних.
Ф8. Епізоди оцінювання цільової
змінної за відмінними експертними моде-
лями та шкалами.
Ф9. Обмежений обсяг доступних
даних у порівнянні з потенційною склад-
ністю простору ознак.
Ф10. Використання різних типів
класифікаційних моделей (імовірнісних,
геометричних, деревоподібних) в одному
ансамблі.
Ф11. Вимога придатності результа-
тів класифікації для практичної підтримки
рішень організаційної системи.
Етапи розробки адаптивного
ансамблю: Ключові етапи та дії. Запро-
понований алгоритм побудови та навчання
індикатора становить наступну послідов-
ність етапів та дій.
Е1. Підготовка даних
DSN→LS, TS,
де DSN ̶ первинний масив спосте-
режень, LS, TS-відповідно навчальна й
тестова вибірка.
Е1.1 Структуризація системи ознак.
Е1.2 Обробка пропусків.
Е1.3 Масштабування.
Е2. Навчання моделей ансамблю
Mi, LS→ UPi (LS), MT
i, KQi, i = 1,...,6,
де MT
i –тренована на даних LS
калібрована модель Mi ;
UPi (LS)-результат класифікації в
точках LS від моделі Mi, поданий як
калібрована імовірність позитивного класу;
KQi – значення трикомпонентної
(критерії F1, MCC, Каппа) метрики якості
класифікації.
Е2.1 Організація циклу крос-
валідації на LS.
Е2.2 Параметризація процедури
навчання за допомогою метрики якості.
Е2.3 Реалізація навчання Mi з
використанням крос-валідації та уніфі-
кованого калібрування результуючих
імовірностей (крос-валідаційне калібру-
вання за методом Платта [4]).
Е3. Визначення апріорних коефі-
цієнтів довіри до елементів ансамблю
D, S, Mi →KDRi,
де D ̶ вимоги до статистичної моде-
лі даних, що визначають вразливості моделі
Mi;
S ̶ ризики порушення вимог у вико-
ристовуваних даних;
KDR ̶ експертна оцінка коефіцієнту
довіри.
Е4. Побудова динамічної метрики
якості класифікації
UPMCC
i(LS),UPKAPPA
i(LS),UPF1
i(LS), KQi →
CORi, WKQD
i
де UPMCC
i(LS), UPKAPPA
i(LS),
UPF1
i(LS) ̶ результати класифікації, отрима-
ні аналогічно Етапу 3, але з використанням
метрики якості тільки з одним із трьох
елементів-критеріїв;
COR ̶ коефіцієнт кореляції вхідних
масивів;
WKQD ̶ ваговий коефіцієнт відпо-
відного критерію в складі динамічної
метрики якості KQDi .
Е5. Прогнозна інтегрована класифі-
кація для спостережень тестової вибірки
TS, {MT
i , WKQD
i , KDRi }, TRP→ UPi (TS),
DPi (TS),
де MT
i – треновані на етапі Е2 моделі;
WKQD ̶ вагові коефіцієнти критеріїв
в метриках KQD моделей;
KDR ̶ коефіцієнти довіри до моде-
лей;
TRP ̶ множина значень імовірності,
одне з яких буде обрано як поріг для проє-
ктування неперервних значень імовірності
класу на бінарну шкалу (0, 1);
UPi(TS) ̶ імовірнісний прогноз;
DPi(TS) ̶ дискретизований прогноз.
Е5.1. Розрахунок ваги моделей.
Е5.2. Імовірнісний прогноз від MT
i в
точках TS.
Е5.3. Зважене усереднення прогнозу.
Е5.4. Дискретизація прогнозу.
В Табл. 1 надано обґрунтування основ-
них положень пропонованого алгоритму.
92
Інформаційні системи організаційного управління
Таблиця 1
Основні положення алгоритму
Етап Виклики Втілені в алгоритмі методичні рішення Аргументація доцільності
Е1.1 Ф1 Розрізнення ресурсних та лагових ознак Різний препроцесинг для запобі-
гання мультиколінеарності
Е1.2 Ф1, Ф3 Видалення спостережень з пропуском лагів
та kNN доповнення ресурсних
Збереження послідовностей
Е1.3 Ф1,Ф2,
Ф6,Ф10
Робастне масштабування ресурсних ознак
в LR, kNN, SVM з використанням медіани
та інтерквартильного розмаху (IQR)
замість середнього та дисперсії (без
зважування класів і видалення
корельованих ознак)
Забезпечення однорідності ознак за
шкалами та, що найважливіше,
зменшення деструктивного впливу
аномальних викидів, характерних
для «важких хвостів» логнор-
мальних розподілів.
Е2.1 Ф4, Ф6,
Ф7, Ф8
5 фолдів з почерговим використанням в
ролі тестового
Стабільність оцінки якості
Е2.2 Ф4, Ф5 Апріорна метрика якості KQi для моделі Mi:
зважена сума адаптованих критеріїв F1 (з
інверсією класів), MCC та Каппа
(перенормованої)
Акцент на виявленні негативних
станів, баланс аспектів якості, зістав-
ність
Е2.3 Ф10 Навчання Mi з крос-валідаційним
калібруванням імовірностей за методом
Платта [4]
Отримання достовірних та уніфі-
кованих імовірностей.
Е3 Ф2, Ф3,
Ф6,Ф10
Визначення коефіцієнтів довіри (KDR) Регуляція впливу моделей згідно
вразливості до властивостей спосте-
режень, ще до етапу оцінки їхньої
емпіричної точності.
Е4 Ф3, Ф4,
Ф5
Урахування фактичної корельованості
елементів KQi для динамічної вагової
параметризації з отриманням KQDi для Mi
Адаптивна та об'єктивна оцінка
якості, що пріоритезує міноритарний
клас і запобігає домінуванню
колінеарних метрик
Е5.1 Ф2, Ф3,
Ф5,Ф10
Вагові коефіцієнти моделей Mi для наступ-
ного використання в голосуванні
Інтеграція вразливості Mi з
продемонстрованою якістю
Е5.2 Ф10 Прогноз індивідуальних (від Mi)
імовірностей класів для тестових точок
Зіставлення Mi - прогнозів завдяки
попереднім крокам
Е5.3 Ф2, Ф4,
Ф6, Ф7,
Ф8, Ф9
Інтеграція індивідуальних прогнозів для
точок тестової вибірки зваженим м’яким
голосуванням [4]
Підвищення впливу переваг, запо-
бігання переоцінці більшого класу,
агрегація розмитих рішень у разі
складних розподілах ознак
Е5.4 Ф11 Оптимальна порогова дискретизація
результатів класифікації (границя між
класами встановлюється як значення
ймовірності, яке максимізує KQD в точках
тестової вибірки)
Створення можливості порівняння
прогнозу класу з фактичними
значеннями для тестової вибірки з
метою наступної оцінки власти-
востей індикатора
93
Інформаційні системи організаційного управління
Табл. 1 узагальнює основні поло-
ження алгоритму RSI та демонструє
взаємозв’язок усіх його етапів із відповіддю
на конкретні виклики — від підготовки
даних і тренування моделей до формування
та оцінки інтегрованого результату. Далі
буде розглянуто низку критичних
компонентів цієї схеми, які забезпечують
адаптивне узгодження ансамблю з
властивостями даних.
Уніфіковане калібрування рішень.
Для забезпечення сумісності ймовірностей
у м'якому голосуванні використовується
уніфіковане крос-валідаційне калібрування
Плата. Ця процедура перетворює "сирі"
вихідні дані моделей (наприклад, decision
values SVM або дистанції kNN) на
достовірні псевдо-імовірності. Це особливо
важливо для SVM, який стандартно
повертає лише відстань до розділяючої
гіперплощини, та для Random Forest, який
часто схильний до надмірної впевненості
на краях діапазону (близько 0 та 1).
Калібрування дозволяє привести виходи
всіх моделей до єдиної ймовірнісної шкали,
що є необхідною умовою для коректного
математичного усереднення; детальний
аналіз підходів до калібрування наведено в
[9], [10].
Визначення коефіцієнту довіри
KDR. Вплив моделей в ансамблі додатково
коригується коефіцієнтом довіри 𝐾𝐾𝐾𝐾𝑅𝑅𝑖𝑖,
який відображає ступінь порушення
припущень даних для кожної моделі.
Розрахунок 𝐾𝐾𝐾𝐾𝑅𝑅𝑖𝑖 дозволяє інтегрувати
апріорні експертні знання про вразливість
моделей згідно з формулою:
𝐾𝐾𝐾𝐾𝑅𝑅𝑖𝑖 = 1
4 ∑ 𝐸𝐸𝐾𝐾𝐾𝐾[𝑖𝑖, 𝑗𝑗]
𝑗𝑗
× 𝐼𝐼𝐼𝐼[𝑖𝑖, 𝑗𝑗]
де 𝐸𝐸𝐾𝐾𝐾𝐾 — матриця експертних
оцінок вразливості моделей до порушення
властивостей даних, а
𝐼𝐼𝐼𝐼 — індикатори фактичного пору-
шення цих умов у поточному наборі
спостережень.
Для кожного класифікатора 𝑀𝑀𝐶𝐶𝑖𝑖 з
пулу 𝑃𝑃𝐶𝐶 = {NB,SVM,RF,kNN,LR} на основі
аналізу широкого спектру класичних
публікацій, зокрема [11], експертно
оцінюється критичність чотирьох вимог до
даних:
1. Форма розподілу ознак (feature
distribution);
2. Незалежність ознак (feature
independence);
3. Баланс спостережень за класами
(observation data balance);
4. Шкала вимірювання (measurement
scale).
Кожна вимога 𝑗𝑗 для моделі 𝑖𝑖
оцінюється на трирівневій шкалі 𝑒𝑒𝑒𝑒𝑑𝑑𝑖𝑖𝑗𝑗 ∈
{0; 0.5; 1}, де 0 означає відсутність суттєвих
вимог моделі до відповідної властивості
даних, 0.5 – помірну чутливість (порушення
припущення допустимі за наявності
стандартних компенсуючих заходів), 1 –
критичну чутливість. Обґрунтування
кожного значення 𝑒𝑒𝑒𝑒𝑑𝑑𝑖𝑖𝑗𝑗 проводилося за
чотирма аспектами 𝐴𝐴𝑎𝑎,𝑗𝑗 (із 𝑎𝑎 = 1, … ,4):
(𝑎𝑎 = 1) - наявність первинного
методичного обмеження;
(𝑎𝑎 = 2) - доступні та фактично засто-
совані в RSI заходи робастності;
(𝑎𝑎 = 3) - програмні засоби (R-паке-
ти/функції), використані для реалі-
зації цих заходів;
(𝑎𝑎 = 4) - потенційні ризики для
якості класифікації у разі порушення
вимоги.
Підсумкова матриця 𝐸𝐸𝐾𝐾𝐾𝐾, наведена
у Табл. 2, фіксує лише теоре-
тико-методичну вразливість моделей; у
формулі для 𝐾𝐾𝐾𝐾𝑅𝑅𝑖𝑖 вона поєднується з
масивом індикаторів 𝐼𝐼𝐼𝐼𝑖𝑖𝑗𝑗, які залежать від
конкретних спостережень.
94
Інформаційні системи організаційного управління
Таблиця 2
Експертні коефіцієнти критичності 𝑒𝑒𝑒𝑒𝑑𝑑𝑖𝑖𝑖𝑖 та аргументація для моделей ансамблю RSI
Розподіл ознак Aa1 Незалежність ознак
Aa2
Збалансованість
спостережень Aa3
Шкала значень Aa4
Байєсівський класифікатор
ekdi1 0 0 0.5 0
a = 1 Не накладаються
жорсткі параметрич-
ні вимоги до форми
розподілу ознак
Передбачається
умовна незалежність
ознак
Дисбаланс класів
зміщує апостеріорні
ймовірності до мажо-
ритарного класу
Окремих вимог
немає за умови
коректного препро-
цесингу
a = 2 Непараметрична
оцінка щільності
(KDE) із парамет-
рами usekernel =
TRUE, adjust = 1
Ознаки структуро-
вано за типами (ре-
сурсні, лагові), що
обмежує складні
залежності
Баланс класів частко-
во стабілізується зав-
дяки стратифікова-
ному поділу train/test
Працює з уже узгод-
жено препроцесо-
ваними ознаками
a = 3 caret::train (method=
"nb");
e1071::naiveBayes
caret, e1071 caret::confusionMatrix;
mltools
caret, e1071
a = 4 Мінімальні Сильні приховані за-
лежності між ознака-
ми можуть порушу-
вати припущення
умовної незалеж-
ності
Ризик пропуску
негативних станів
Непослідовне коду-
вання типів ознак
може викривляти
інтерпретацію
щільностей
Метод опорних векторів SVM
ekdi2 0 0 0.5 0.5
a = 1 Немає вимоги нор-
мальності; проблеми
переважно за умови
дуже складних
кордонах та шумі
Загалом стійка до
помірної мультиколі-
неарності
За суттєвого дисба-
лансу гіперплощина
може «зміщуватися»
на користь
мажоритарного класу
Дуже чутлива до
масштабу ознак
a = 2 Застосовано
радіальне ядро з
підбором параметрів
регуляризації та
ширини ядра
Ознаки
структуровано за
типами (ресурсні,
лагові), що обмежує
складні залежності
Баланс класів частко-
во стабілізується зав-
дяки стратифікова-
ному поділу train/test
Робастне масштабу-
вання числових ознак
(центрування за
медіаною та масшта-
бування за IQR)
a = 3 caret::train (method=
"svmRadial");
kernlab::ksvm;
stats::glm
caret, kernlab,
stats::glm
caret, kernlab caret, kernlab
95
Інформаційні системи організаційного управління
Розподіл ознак Aa1 Незалежність ознак
Aa2
Збалансованість
спостережень Aa3
Шкала значень Aa4
a = 4 Невдалий вибір пара-
метрів ядра може
призводити до пере-
або недонавчання на
складних розподілах
Мультиколінеарність
здатна погіршувати
стабільність опорних
векторів і ускладню-
вати інтерпретацію
моделі
За значного дисба-
лансу можливе
зміщення розділя-
ючої гіперплощини
на користь мажори-
тарного класу
Некоректне масшта-
бування ознак здатне
суттєво викривлю-
вати відстані в
ознаковому просторі
Випадковий ліс
ekdi3 0 0 0.5 0
a = 1 Відсутні Відсутні Схильність до
мажоритарного класу
при дисбалансі
Відсутні
a = 2 Непотрібні Ознаки групуються
за типами (ресурсні,
лагові)
Баланс класів частко-
во стабілізується зав-
дяки стратифікова-
ному поділу train/test
Не застосовується
a = 3 caret::train (method= "rf"); randomForest; ranger
a = 4 Відсутні Відсутні За сильного дисба-
лансу існує ризик
систематичного
недопредставлення
міноритарного класу
Відсутні
Метод найближчих сусідів kNN
ekdi4 0 0.5 0.5 0.5
a = 1 Не висуваються при-
пущення щодо фор-
ми розподілів, але є
чутливість до шуму
Сильні кореляції між
ознаками
спотворюють
евклідові відстані
У разі дисбалансу
найближчі сусіди
часто належать
мажоритарному
класу
Відстані сильно зале-
жать від масштабу
ознак; «довгі» шкали
домінують у метриці
a = 2 Не застосовуються;
робастність досяга-
ється за рахунок
вибору відстаневої
метрики та масшта-
бування
Ознаки розділено за
типами (ресурсні,
лагові)
Баланс класів
частково стабі-
лізується завдяки
стратифікованому
поділу train/test
Для числових ознак
застосовано робастне
масштабування (ме-
діана/IQR), що змен-
шує домінування ок-
ремих ознак у відста-
нях
a = 3 caret::train (method= "knn"); class::knn; kknn::train.kknn
96
Інформаційні системи організаційного управління
Розподіл ознак Aa1 Незалежність ознак
Aa2
Збалансованість
спостережень Aa3
Шкала значень Aa4
a = 4 Наявність шуму та
розрідженості може
робити сусідства
нестабільними
Сильні кореляції між
ознаками спотво-
рюють геометрію
простору
Виражений дисба-
ланс класів може
призводити до домі-
нування мажоритар-
ного класу серед
найближчих сусідів
Відсутність корект-
ного масштабування
робить результат за-
лежним від вибору
одиниць вимірю-
вання
Логістична регресія
ekdi5 0 0.5 0.5 0.5
a = 1 Не вимагається,
проте викиди та
асиметрія можуть
впливати на
стабільність оцінок
Мультиколінеарність
збільшує дисперсію
оцінених коефі-
цієнтів та ускладнює
інтерпретацію
У разі дисбалансу
класів максимізація
правдоподібності
тяжіє до
мажоритарного класу
Чутливість до неко-
ректного кодування
категоріальних змін-
них та різких відмін-
ностей масштабів
a = 2 Для зменшення
впливу викидів
використано
робастне масштабу-
вання числових ознак
Ознаки розділено за
типами (ресурсні,
лагові)
Баланс класів
частково
стабілізується
завдяки
стратифікованому
поділу train/test
Для числових ознак
використано робаст-
не масштабування
(медіана/IQR), що
підвищує стабіль-
ність оцінених
коефіцієнтів
a = 3 caret::train (method= "glm", family =binomial); stats::glm
a = 4 Сильні відхилення
від «регулярних»
розподілів (викиди,
важкі «хвости»)
можуть зміщувати
оцінки параметрів
Виражена мульти-
колінеарність здатна
значно збільшувати
дисперсію оцінених
коефіцієнтів
У разі значного
дисбалансу
логістична регресія
може повертати
добре калібровані,
але зміщені ймовір-
ності з низькою
чутливістю до
міноритарного класу
Некоректне коду-
вання категоріальних
змінних і великі
відмінності масшта-
бів між ознаками
можуть суттєво
погіршувати якість
класифікації
Адаптивна метрика якості (KQ).
Якість класифікації оцінюється за
композитним індикатором 𝐾𝐾𝐾𝐾, розроб-
леним у цьому дослідженні спеціально для
обробки незбалансованих даних; детальний
огляд проблеми навчання на
незбалансованих вибірках і відповідних
метрик подано, зокрема, в [12], [13], [14].
Метрика включає три компоненти:
• 𝐹𝐹1𝑛𝑛𝑛𝑛𝑛𝑛 (базова вага 𝑤𝑤𝑓𝑓1 = 0.5) —
гармонічне середнє Precision та Recall для
негативного класу. Висока вага цього
компонента є свідомим вибором для
пріоритезації виявлення критичних загроз,
навіть якщо це призводить до незначного
зниження загальної точності [2];
• 𝑀𝑀𝑀𝑀𝑀𝑀 (базова вага 𝑤𝑤𝑚𝑚𝑚𝑚𝑚𝑚 = 0.35) —
коефіцієнт кореляції Метьюса. Це робастна
оцінка загальної якості, яка враховує всі
чотири елементи матриці плутанини (TP,
TN, FP, FN) і залишається адекватною
навіть за сильного дисбалансу класів;
• 𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝑛𝑛𝑛𝑛𝑛𝑛𝑚𝑚 (базова вага 𝑤𝑤𝑘𝑘𝑘𝑘𝑘𝑘𝑘𝑘𝑘𝑘 =
0.15) — нормалізована каппа Коена, що
97
Інформаційні системи організаційного управління
відображає перевагу моделі над
випадковим вгадуванням. Метрика є
динамічною, оскільки її вагові коефіцієнти
автоматично коригуються на основі
кореляції 𝑟𝑟 між 𝑀𝑀𝑀𝑀𝑀𝑀 та 𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝐾𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 (фактор
надлишковості). Якщо ці метрики сильно
корелюють на поточному наборі даних, їхні
ваги пропорційно зменшуються, щоб
уникнути дублювання інформації та
перекосу оцінки. Це забезпечує адап-
тованість 𝐾𝐾𝐾𝐾 до фактичних характеристик
навчальних даних і робить її більш стійкою
до змін у розподілах.
Зважене м'яке голосування.
Фінальне інтегроване рішення отримується
через процедуру зваженого м'якого
голосування [4], [8]:
𝐾𝐾�̂�𝑖 = ∑ 𝑊𝑊𝑛𝑛
𝑁𝑁
𝑛𝑛=1
⋅ 𝑃𝑃𝑛𝑛(𝑥𝑥𝑖𝑖),
де 𝑃𝑃𝑛𝑛(𝑥𝑥𝑖𝑖) — калібрована імовірність
позитивного класу від моделі 𝑚𝑚, а
вага 𝑊𝑊𝑛𝑛 залежить від якості моделі
𝐾𝐾𝐾𝐾𝑛𝑛 та її коефіцієнта довіри 𝐾𝐾𝐾𝐾𝑅𝑅𝑛𝑛: 𝑊𝑊𝑛𝑛 ∝
𝐾𝐾𝐾𝐾𝑛𝑛 ⋅ (1 − 𝐾𝐾𝐾𝐾𝑅𝑅𝑛𝑛).
Обґрунтування переваги м'якого
голосування полягає у використанні всієї
інформації про ступінь впевненості моделі.
На відміну від жорсткого голосування, де
"невпевнене" рішення моделі (наприклад,
ймовірність 0.51) має таку ж вагу, як і
"впевнене" (0.99), м'яке голосування
дозволяє точніше агрегувати прогнози,
надаючи більшу вагу більш впевненим
моделям. Це призводить до формування
гладкішої розділяючої поверхні та значно
якісніших інтегрованих імовірностей.
Оптимальний поріг дискретизації
встановлюється не фіксовано (0.5), а
адаптивно — як значення, що максимізує
фінальну метрику 𝐾𝐾𝐾𝐾 на тестовій вибірці,
що дозволяє гнучко балансувати точність і
повноту залежно від поточних умов задачі.
Генерація даних для
експерименту. Для дослідження стабіль-
ності використано синтетично згенеровані
дані, що імітують складні виклики
предметної області: логнормальний
розподіл ознак, дисбаланс (20% негатив-
ного класу) та інерційність процесів (лагові
ознаки). Значення мітки імітують експертні
оцінки цільової благополучності, які
надаються наприкінці чергового періоду
аудиту та розповсюджуються на ресурсні
спостереження по всій його довжині.
Введення лагових ознак паралельно з
ознаками рівня забезпеченості за видами
ресурсу обслуговує потребу в урахуванні
впливів на благополучність, спричинених
ресурсними даними попередніх періодів.
Використання синтетичних даних є
необхідним методологічним кроком,
оскільки дозволяє точно контролювати
параметри розподілів та рівень шуму, що
неможливо на обмежених реальних
історичних вибірках. Експеримент прово-
дився на 5 серіях датасетів з обсягами
вибірок: 3000, 1500, 840, 364 та 140
спостережень. Логіка генератора ґрунту-
ється на «м’якому скоринговому відборі»
(soft scoring selection). Цей метод враховує
поточний стан системи (𝐿𝐿), попередній стан
(𝐿𝐿𝑝𝑝𝑛𝑛𝑝𝑝𝑝𝑝) та інерційні параметри (𝐹𝐹𝐿𝐿1 —
довжина серії станів) для відбору значень з
батьківських логнормальних розподілів.
Скоринг-функція 𝑆𝑆 інтегрує вплив «хвоста»
розподілу та довжини серії періодів із
стабільним значенням мітки, що дозволяє
генерувати реалістичні часові ряди з
залежностями, імітуючи складні процеси
деградації ресурсів, а не просто випадковий
шум.
Дизайн статистичного експерименту.
Експеримент включав 250 незалежних
прогонів на 5 різних синтетичних дата-
сетах. Було застосовано парний дизайн
(Paired Design) для порівняння ансамблю
RSI проти Random Forest (RF) [15]. Вибір
RF як базового еталону є обґрунтованим,
оскільки попередні дослідження показали,
що RF є найкращим окремим класи-
фікатором серед компонентів ансамблю.
Таким чином, це найбільш суворий тест, що
дозволяє оцінити саме додаткову цінність
механізму інтеграції, а не просто перевагу
над слабкими моделями. Парний дизайн
нівелює вплив випадкових факторів
(випадкове початкове значення, розбиття на
навчальну/тестову вибірки), фокусуючись
виключно на різниці в ефективності
методів на одних і тих самих даних. Для
оцінки переваги використовувався аналіз
98
Інформаційні системи організаційного управління
дельт (Δ = 𝑅𝑅𝑅𝑅𝑅𝑅 − 𝑅𝑅𝑅𝑅) та такі статистичні
критерії:
• Критерій знакових рангів Вілкоксона
— непараметричний тест для
перевірки гіпотези про зсув медіани
різниць;
• Парний t-критерій Стьюдента —
для перевірки середнього значення
різниць;
• Розмір ефекту d-Коена — для
оцінки практичної значущості
отриманої різниці.
4. Результати досліджень
Огляд загальної ефективності
ансамблю. Проведені дослідження на 250
прогонах показали, що ансамбль RSI
перевершив якість найкращої окремої
моделі (Random Forest) у всіх 5 серіях
експерименту (з обсягами від 3000 до 140
спостережень), незалежно від параметрів
датасету (розміру вибірки та рівня шуму).
Це свідчить про універсальність
запропонованого підходу.
Статистична значущість переваги
RSI. Середні абсолютні значення метрик
якості, отримані під час експерименту,
наведені у Табл. 3. Результати аналізу дельт
(Δ = 𝑅𝑅𝑅𝑅𝑅𝑅 − 𝑅𝑅𝑅𝑅) за загальною вибіркою
(250 прогонів) підтвердили статистичну
значущість переваги RSI, що детально
представлено у Табл. 4.
Таблиця 3
Середні абсолютні значення метрик (250 прогонів)
Метрика Ансамбль RSI
(Середнє)
Random Forest
(Середнє)
Різниця 𝚫𝚫
(RSI - RF)
Медіана 𝚫𝚫
(RSI - RF)
𝐾𝐾𝐾𝐾 0.6260 0.5578 +0.0682 +0.0499
𝑅𝑅1𝑛𝑛𝑛𝑛𝑛𝑛 0.6432 0.5609 +0.0823 +0.0647
𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑛𝑛𝑛𝑛𝑛𝑛 0.7108 0.4646 +0.2462 +0.2143
Таблиця 4
Статистична значущість переваги RSI над RF (250 прогонів)
Метрика Тест
Вілкоксона, 𝒑𝒑
Тест
Вілкоксона,
95% ДІ
t-критерій
Стьюдента, 𝒑𝒑
t-критерій
Стьюдента,
95% ДІ
Розмір
ефекту 𝒅𝒅-
Коена
Δ𝐾𝐾𝐾𝐾 2.06×10⁻³⁸ (<
0.001)
[0.0528, ∞] 1.20×10⁻³⁹ (<
0.001)
[0.0610, ∞] 1.41
Δ𝑅𝑅1𝑛𝑛𝑛𝑛𝑛𝑛 3.40×10⁻⁴¹ (<
0.001)
[0.0653, ∞] 4.63×10⁻⁴⁷ (<
0.001)
[0.0748, ∞] 1.60
Δ𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑛𝑛𝑛𝑛𝑛𝑛 1.28×10⁻⁴¹ (<
0.001)
[0.2222, ∞] 4.49×10⁻⁷⁰ (<
0.001)
[0.2299, ∞] 2.23
Ключові висновки з отриманих
результатів:
• Статистична значущість: Усі p-
значення для обох статистичних тестів
(Вілкоксона та Стьюдента) значно нижчі за
рівень значущості α = 0.05 (фактично 𝑝𝑝 <
10−38). Це доводить статистично значущу
перевагу ансамблю RSI над RF. Імовірність
99
Інформаційні системи організаційного управління
того, що цей результат є випадковим збігом,
фактично нульова.
• Практична значущість: Розмір
ефекту d-Коена для всіх ключових метрик є
великим (𝑑𝑑 ≥ 1.41). Отримані значення
𝑑𝑑 > 1.4 свідчать про те, що різниця між
RSI та RF є не тільки статистично
фіксованою, а також обґрунтованою та
помітною на практиці. Це означає, що
покращення якості класифікації є суттєвим
і стабільним, а розподіли результатів двох
методів мають мале перекриття. Особливо
важливим є значне покращення Δ𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑛𝑛𝑛𝑛𝑛𝑛
(+24.6%), що вказує на здатність ансамблю
значно краще виявляти приховані загрози.
5. Обговорення результатів
Отримані результати підтверджують
ключову гіпотезу дослідження: адаптивна
інтеграція рішень є ефективним способом
підвищення надійності та стабільності
класифікації в умовах, які є традиційно
складними для окремих ML-моделей.
Додаткова цінність ансамблю-
вання. Той факт, що ансамбль RSI
статистично значуще перевершив свій
найкращий окремий компонент (Random
Forest), доводить, що механізм інтеграції
збільшує додаткову цінність, яка
виправдовує підвищену обчислювальну
складність алгоритму. Ця перевага виникає
завдяки синергії двох ключових факторів:
• роль гетерогенності та дина-
мічної адаптації: Хоча RF є найкращим у
середньому, у певних підмножинах даних
(наприклад, на краях розподілів або при
специфічних комбінаціях шуму) якісний
результат можуть демонструвати інші
моделі (SVM, NB). Адаптивна інтеграція
(через 𝐾𝐾𝐾𝐾𝑅𝑅-зважування та динамічний 𝐾𝐾𝐾𝐾)
дозволяє RSI динамічно «нахилятися» до
тимчасово найкращої моделі, уникнувши
пастки локального оптимуму одного
методу. Це забезпечує робастність системи.
• робастність м'якого голосуван-
ня: Зважене м'яке голосування, підкріплене
уніфікованим калібруванням, забезпечило
стабільну перевагу над RF в умовах
обмежених, зашумлених та значно
незбалансованих наборів даних. Цей підхід
дозволяє врахувати нюанси розподілу
ймовірностей, де «впевнені» прогнози
(наприклад, з імовірністю 0.9) вносять
суттєво більший вклад у фінальне рішення,
ніж «граничні» (0.51). Це підтверджує, що
агрегація ступеня впевненості моделей
формує більш стійкий вирішальний простір
і є значно інформативнішою, ніж проста
мажоритарна агрегація бінарних рішень,
яка втрачає цю критично важливу мета-
інформацію.
Це підтверджує, що розроблений
ансамбль не просто усереднює результати,
а створює адаптивний механізм, який
мінімізує вплив нестабільності окремих
моделей і забезпечує вищу надійність
індикатора в цілому.
6. Висновки
Отримані результати підтвер-
джують, що запропонований алгоритм
адаптивної ансамблевої інтеграції рішень є
перспективним підходом для побудови
індикатора ресурсної безпеки інтересів
розподіленої організаційної системи:
1. Розроблена методологія успішно
поєднує зважене м'яке голосування,
уніфіковане калібрування імовірностей,
адаптивну композитну метрику якості (𝐾𝐾𝐾𝐾)
та експертно задані коефіцієнти
відповідності даним (𝐸𝐸𝐾𝐾𝐾𝐾, 𝐾𝐾𝐾𝐾𝑅𝑅), що
дозволяє ефективно працювати зі
складними незбалансованими даними та
враховувати теоретичну вразливість
моделей до порушення статистичних
припущень.
2. Проведений статистичний екс-
перимент показав наявність доменно
репрезентативних областей даних зі ста-
тистично значущою перевагою ансамблю
RSI над еталонним класифікатором RF
(𝑝𝑝 < 0.001), підтвердивши гіпотезу про
ефективність адаптивного підходу.
3. Розмір ефекту (𝑑𝑑-Коена) під-
твердив практичну значущість переваги
(𝑑𝑑 > 1.4), довівши, що механізм інтеграції
створює реальну додаткову цінність.
4. Забезпечення стабільності та
надійності класифікації робить RSI ефек-
тивним інструментом для застосування у
сфері національної безпеки та оборонного
планування, де ціна помилки в бік
100
Інформаційні системи організаційного управління
нехтування ресурсною неблагополучністю
є критично високою.
5. Реалізація RSI базується на
сучасному стеку пакетів R (`caret`, `ranger`,
`e1071`, `class`) з актуальними версіями
станом на кінець 2025 року, що додатково
підкріплює відтворюваність результатів і
відповідність застосованих програмних
засобів сучасним практикам побудови
класифікаційних моделей.
Напрямки подальших досліджень.
Подальші дослідження будуть зосереджені
на системному аналізі стабільності
досягнутої якості класифікації (метрика
𝐾𝐾𝐾𝐾) відносно ключових детермінант
проблемних даних. Планується викорис-
тання методології Latin Hypercube Sampling
(LHC) для ефективного покриття багато-
вимірного простору факторних викликів
(рівня шуму, ступеня дисбалансу, об’єму
даних) та отримання кількісних оцінок меж
стабільності алгоритму в ширшому
діапазоні умов експлуатації, як показано в
[16].
Література
1. Skybyk S., Doroshenko A., Ilyina O., Sinitsyn
I. Machine-Learning-Based Model for
Indicators of the Resource-Based Security of
Interests in High-Level Organizational
Systems // Proceedings of the 9th International
Scientific and Practical Conference Applied
Information Systems and Technologies in the
Digital Society (AISTDS 2025). CEUR
Workshop Proceedings. 2025. Vol. 4133. P.
153–169. URL: https://ceur-ws.org/Vol-
4133/S_12_Doroshenko.pdf.
2. Kress M. Operational Logistics: The Art and
Science of Sustaining Military Operations. 2nd
ed. Switzerland: Springer International
Publishing, 2016. 313 p.
3. Сініцин І.П., Шевченко В.Л., Дорошенко
А.Ю., Федоренко Р.М. Моделі та програмні
системи управління оборонними
ресурсами: монографія. Київ: ІПС НАНУ,
2024. 268 с.
4. Large J., Lines J., Bagnall A. A probabilistic
classifier ensemble weighting scheme based on
exponentially weighting the probability
estimates // Data Mining and Knowledge
Discovery. 2019. DOI: 10.1007/s10618-019-
00638-y.
5. Adam S. P., Alexandropoulos S.-A. N.,
Pardalos P. M., Vrahatis M. N. No Free Lunch
Theorem: A review // In: Demetriou I. C.,
Pardalos P. M. (eds.) Approximation and
Optimization. Springer Optimization and Its
Applications, vol. 145. Switzerland: Springer,
2019. P. 57–82. DOI: 10.1007/978-3-030-
12767-1_5.
6. Wright M. N., Ziegler A. ranger: A Fast
Implementation of Random Forests for High
Dimensional Data in C++ and R // Journal of
Statistical Software. 2017. Vol. 77, No. 1.
7. Kuhn M., Johnson K. Feature Engineering and
Selection: A Practical Approach for Predictive
Models. Boca Raton, FL: CRC Press, 2019.
600 p.
8. Kuncheva L. I. Combining Pattern Classifiers:
Methods and Algorithms. Wiley, 2004. 312 p.
9. Kull M., Silva F. A., Flach P. Beyond
Sigmoids: How to Obtain Well-Calibrated
Probabilities from Binary Classifiers //
Machine Learning. 2017. Vol. 106, No. 3. P.
437–451.
10. Naeini M.P., Cooper G.F., Hauskrecht M.
Obtaining Well Calibrated Probabilities Using
Bayesian Binning // Proceedings of the AAAI
Conference on Artificial Intelligence. 2015.
11. Aggarwal C. C. Data Mining: The Textbook.
Springer, 2015. 734 p.
12. He H., Ma Y. Imbalanced Learning:
Foundations, Algorithms, and Applications.
Wiley, 2013. DOI: 10.1002/9781118646106.
13. Branco P., Torgo L., Ribeiro R.P. A Survey of
Predictive Modeling Under Imbalanced
Distributions // ACM Computing Surveys.
2015. Vol. 49, No. 2.
14. Krawczyk B. Learning from Imbalanced Data:
Open Challenges and Future Directions //
Progress in Artificial Intelligence. 2016. Vol.
5, No. 4. P. 221–232.
15. Demšar J. Statistical Comparisons of
Classifiers over Multiple Data Sets // Journal
of Machine Learning Research. 2006. Vol. 7.
P. 1–30.
16. Iooss B., Lemaître P. A Review on Global
Sensitivity Analysis Methods // In: Dellino G.,
Meloni C. (eds.) Uncertainty Management in
Simulation-Optimization of Complex Systems.
Boston, MA: Springer, 2015. P. 101–122.
References
1. Skybyk S., Doroshenko A., Ilyina O., Sinitsyn
I. Machine-Learning-Based Model for
Indicators of the Resource-Based Security of
Interests in High-Level Organizational
101
Інформаційні системи організаційного управління
Systems // Proceedings of the 9th International
Scientific and Practical Conference Applied
Information Systems and Technologies in the
Digital Society (AISTDS 2025). CEUR
Workshop Proceedings. 2025. Vol. 4133. P.
153–169. URL: https://ceur-ws.org/Vol-
4133/S_12_Doroshenko.pdf.
2. Kress M. Operational Logistics: The Art and
Science of Sustaining Military Operations. 2nd
ed. Switzerland: Springer International
Publishing, 2016. 313 p.
3. Sinitsyn I. P., Shevchenko V. L., Doroshenko
A. Yu., Fedorenko R. M. Models and software
systems for defence resource management:
monograph. Kyiv: IPS of NASU, 2024. 268 p.
4. Large J., Lines J., Bagnall A. A probabilistic
classifier ensemble weighting scheme based on
exponentially weighting the probability
estimates // Data Mining and Knowledge
Discovery. 2019. DOI: 10.1007/s10618-019-
00638-y.
5. Adam S. P., Alexandropoulos S.-A. N.,
Pardalos P. M., Vrahatis M. N. No Free Lunch
Theorem: A review // In: Demetriou I. C.,
Pardalos P. M. (eds.) Approximation and
Optimization. Springer Optimization and Its
Applications, vol. 145. Switzerland: Springer,
2019. P. 57–82. DOI: 10.1007/978-3-030-
12767-1_5.
6. Wright M. N., Ziegler A. ranger: A Fast
Implementation of Random Forests for High
Dimensional Data in C++ and R // Journal of
Statistical Software. 2017. Vol. 77, No. 1.
7. Kuhn M., Johnson K. Feature Engineering and
Selection: A Practical Approach for Predictive
Models. Boca Raton, FL: CRC Press, 2019.
600 p.
8. Kuncheva L. I. Combining Pattern Classifiers:
Methods and Algorithms. Wiley, 2004. 312 p.
9. Kull M., Silva F. A., Flach P. Beyond
Sigmoids: How to Obtain Well-Calibrated
Probabilities from Binary Classifiers //
Machine Learning. 2017. Vol. 106, No. 3. P.
437–451.
10. Naeini M.P., Cooper G.F., Hauskrecht M.
Obtaining Well Calibrated Probabilities Using
Bayesian Binning // Proceedings of the AAAI
Conference on Artificial Intelligence. 2015.
11. Aggarwal C. C. Data Mining: The Textbook.
Springer, 2015. 734 p.
12. He H., Ma Y. Imbalanced Learning:
Foundations, Algorithms, and Applications.
Wiley, 2013. DOI: 10.1002/9781118646106.
13. Branco P., Torgo L., Ribeiro R.P. A Survey of
Predictive Modeling Under Imbalanced
Distributions // ACM Computing Surveys.
2015. Vol. 49, No. 2.
14. Krawczyk B. Learning from Imbalanced Data:
Open Challenges and Future Directions //
Progress in Artificial Intelligence. 2016. Vol.
5, No. 4. P. 221–232.
15. Demšar J. Statistical Comparisons of
Classifiers over Multiple Data Sets // Journal
of Machine Learning Research. 2006. Vol. 7.
P. 1–30.
16. Iooss B., Lemaître P. A Review on Global
Sensitivity Analysis Methods // In: Dellino G.,
Meloni C. (eds.) Uncertainty Management in
Simulation-Optimization of Complex Systems.
Boston, MA: Springer, 2015. P. 101–122.
Одержано: 30.11.2025
Внутрішня рецензія отримана: 07.12.2025
Зовнішня рецензія отримана: 11.12.2025
Про авторів:
Скибик Сергій Ярославович,
аспірант
https://orcid.org/0009-0008-4336-680X
Ільїна Олена Павлівна,
кандидат фізико-математичних наук,
старший науковий співробітник,
провідний науковий співробітник
https://orcid.org/0000-0002-4073-9649
Місце роботи авторів:
Інститут програмних систем
Національної академії наук України,
03187, м. Київ, проспект
Академіка Глушкова, 40.
e-mail: ilyina.elena1@ukr.net,
sskybyk@gmail.com
|
| id | pp_isofts_kiev_ua-article-879 |
| institution | Problems in programming |
| keywords_txt_mv | keywords |
| language | Ukrainian |
| last_indexed | 2026-03-12T17:16:38Z |
| publishDate | 2026 |
| publisher | PROBLEMS IN PROGRAMMING |
| record_format | ojs |
| resource_txt_mv | ppisoftskievua/ab/cec43fd3b4d987882645887167359cab.pdf |
| spelling | pp_isofts_kiev_ua-article-8792026-02-12T15:27:30Z Adaptive ensemble decision integration for indicator of resource security: methodology and statistical validation of stability Адаптивна ансамблева інтеграція рішень для індикатора ресурсної безпеки: методологія та статистична валідація стабільності Ilyina, O.P. Skybyk, S.Ya. machine-learning classification; ensemble training; adaptive quality metric; class imbalance; soft voting; statistical validation; strategic decision support UDC 004.855, 519.86 класифікація методами машинного навчання; ансамблеве навчання; адаптивна метрика якості; дисбаланс класів; м’яке голосування; статистична валідація; підтримка стратегічних рішень УДК 004.855, 519.86 Ensuring effective decision support in complex distributed organizational systems (especially in national security and defense planning) requires reliable classification methods capable of rapid diagnosis of resource states and risks to strategic interests. The effectiveness of a resource security indicator (RSI) built on machine learning methods critically depends on the stability and reliability of integrated predictions under conditions typical of this domain: significant class imbalance (where missing a negative state is critical), limited data volume, log normal feature distribution with "long tails", and noise components that reduce the stability of individual classifiers. To address these challenges, an adaptive ensemble integration mechanism (RSI) was developed, implementing weighted soft voting of models (NB, SVM, RF, kNN, LR) with unified probability calibration. The central element is a composite dynamic quality metric (KQ), which combines 1 (prioritizing the minority class), , and , adapting their weights based on correlation. Trust coefficients (KDR) are integrated to adjust the influence of models depending on their vulnerability to data properties. Algorithm validation was performed on synthetic data simulating log-normal distribution and lag effects of real-world conditions. A large-scale experiment (250 runs, paired design) confirmed high statistical significance ( 0.001 by Wilcoxon test) of RSI superiority over the best single classifier (Random Forest) across all metrics (Δ, Δ1, Δ). The effect size (Cohen's ≥ 1.41) indicates large practical value. The results demonstrate that adaptive integration ensures stability and reliability of risk diagnosis, critically necessary for security applications.Problems in programming 2025; 4: 88-101 Забезпечення ефективної підтримки ухвалення рішень у складних розподілених організаційних системах (особливо у сфері національної безпеки та оборонного планування) вимагає розробки надійних методів класифікації, здатних оперативно діагностувати стани ресурсів та ризики стратегічним інтересам. Ефективність індикатора ресурсної безпеки (RSI), побудованого на базі методів машинного навчання, критично залежить від стабільності та достовірності інтегрованих прогнозів, особливо в умовах, характерних для предметної області: значний дисбаланс класів (де помилка пропуску негативного стану є критичною), обмежений обсяг даних, логнормальний розподіл ознак із «довгими хвостами», та наявність шумових компонентів, що знижує стабільність окремих класифікаторів. Для вирішення цього розроблено адаптивний механізм ансамблевої інтеграції (RSI), що реалізує зважене м’яке голосування моделей (NB, SVM, RF, kNN, LR) з уніфікованим калібруванням імовірностей. Центральним елементом є композитна динамічна метрика якості (KQ), яка поєднує 1 (пріоритет міноритарного класу), та , адаптуючи їхні ваги на основі кореляції. Інтегровано коефіцієнти довіри (KDR) для корекції впливу моделей залежно від їх вразливості до властивостей даних. Валідацію алгоритму проведено на синтетичних даних, що імітують логнормальний розподіл та лагові ефекти реальних умов. Масштабний експеримент (250 прогонів, парний дизайн) підтвердив високу статистичну значущість ( 0.001 за критерієм Вілкоксона) переваги RSI над найкращим окремим класифікатором (Random Forest) за всіма метриками (Δ, Δ1, Δ). Розмір ефекту (-Коена ≥ 1.41) свідчить про велику практичну цінність. Результати доводять, що адаптивна інтеграція забезпечує стабільність та надійність діагностики ризиків, що критично необхідні для безпекових застосувань.Problems in programming 2025; 4: 88-101 PROBLEMS IN PROGRAMMING ПРОБЛЕМЫ ПРОГРАММИРОВАНИЯ ПРОБЛЕМИ ПРОГРАМУВАННЯ 2026-02-12 Article Article application/pdf https://pp.isofts.kiev.ua/index.php/ojs1/article/view/879 PROBLEMS IN PROGRAMMING; No 4 (2025); 88-101 ПРОБЛЕМЫ ПРОГРАММИРОВАНИЯ; No 4 (2025); 88-101 ПРОБЛЕМИ ПРОГРАМУВАННЯ; No 4 (2025); 88-101 1727-4907 uk https://pp.isofts.kiev.ua/index.php/ojs1/article/view/879/932 Copyright (c) 2026 PROBLEMS IN PROGRAMMING |
| spellingShingle | machine-learning classification ensemble training adaptive quality metric class imbalance soft voting statistical validation strategic decision support UDC 004.855 519.86 Ilyina, O.P. Skybyk, S.Ya. Adaptive ensemble decision integration for indicator of resource security: methodology and statistical validation of stability |
| title | Adaptive ensemble decision integration for indicator of resource security: methodology and statistical validation of stability |
| title_alt | Адаптивна ансамблева інтеграція рішень для індикатора ресурсної безпеки: методологія та статистична валідація стабільності |
| title_full | Adaptive ensemble decision integration for indicator of resource security: methodology and statistical validation of stability |
| title_fullStr | Adaptive ensemble decision integration for indicator of resource security: methodology and statistical validation of stability |
| title_full_unstemmed | Adaptive ensemble decision integration for indicator of resource security: methodology and statistical validation of stability |
| title_short | Adaptive ensemble decision integration for indicator of resource security: methodology and statistical validation of stability |
| title_sort | adaptive ensemble decision integration for indicator of resource security: methodology and statistical validation of stability |
| topic | machine-learning classification ensemble training adaptive quality metric class imbalance soft voting statistical validation strategic decision support UDC 004.855 519.86 |
| topic_facet | machine-learning classification ensemble training adaptive quality metric class imbalance soft voting statistical validation strategic decision support UDC 004.855 519.86 класифікація методами машинного навчання ансамблеве навчання адаптивна метрика якості дисбаланс класів м’яке голосування статистична валідація підтримка стратегічних рішень УДК 004.855 519.86 |
| url | https://pp.isofts.kiev.ua/index.php/ojs1/article/view/879 |
| work_keys_str_mv | AT ilyinaop adaptiveensembledecisionintegrationforindicatorofresourcesecuritymethodologyandstatisticalvalidationofstability AT skybyksya adaptiveensembledecisionintegrationforindicatorofresourcesecuritymethodologyandstatisticalvalidationofstability AT ilyinaop adaptivnaansamblevaíntegracíâríšenʹdlâíndikatoraresursnoíbezpekimetodologíâtastatističnavalídacíâstabílʹností AT skybyksya adaptivnaansamblevaíntegracíâríšenʹdlâíndikatoraresursnoíbezpekimetodologíâtastatističnavalídacíâstabílʹností |