Генерація та використання змагальної вибірки для протидії ухиленню ботнетів від виявлення нейронними мережами (до 100-річчя з дня народження академіка В.М. Глушкова)
Описано спосіб проведення оцінки надійності систем виявлення ботнетів на основі нейронних мереж, з точки зору їх вразливості до змагальних атак, і підвищення стійкості таких систем через розширення навчального набору штучними даними. Під «змагальною атакою» мається на увазі цілеспрямована спроба зло...
Збережено в:
| Дата: | 2023 |
|---|---|
| Автор: | |
| Формат: | Стаття |
| Мова: | Ukrainian |
| Опубліковано: |
V.M. Glushkov Institute of Cybernetics of NAS of Ukraine
2023
|
| Теми: | |
| Онлайн доступ: | https://jais.net.ua/index.php/files/article/view/199 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Problems of Control and Informatics |
Репозитарії
Problems of Control and Informatics| id |
oai:ojs2.jais.net.ua:article-199 |
|---|---|
| record_format |
ojs |
| institution |
Problems of Control and Informatics |
| baseUrl_str |
|
| datestamp_date |
2024-03-14T10:24:21Z |
| collection |
OJS |
| language |
Ukrainian |
| topic |
мережеві потоки нейронні мережі системи виявлення вторгнень змагальні атаки доповнення даних ботнети |
| spellingShingle |
мережеві потоки нейронні мережі системи виявлення вторгнень змагальні атаки доповнення даних ботнети Panchuk, Bohdan Генерація та використання змагальної вибірки для протидії ухиленню ботнетів від виявлення нейронними мережами (до 100-річчя з дня народження академіка В.М. Глушкова) |
| topic_facet |
мережеві потоки нейронні мережі системи виявлення вторгнень змагальні атаки доповнення даних ботнети network flows neural networks intrusion detection systems adversarial attacks data augmentation botnets сетевые потоки нейронные сети системы обнаружения вторжений соревновательные атаки дополнение данных ботнеты |
| format |
Article |
| author |
Panchuk, Bohdan |
| author_facet |
Panchuk, Bohdan |
| author_sort |
Panchuk, Bohdan |
| title |
Генерація та використання змагальної вибірки для протидії ухиленню ботнетів від виявлення нейронними мережами (до 100-річчя з дня народження академіка В.М. Глушкова) |
| title_short |
Генерація та використання змагальної вибірки для протидії ухиленню ботнетів від виявлення нейронними мережами (до 100-річчя з дня народження академіка В.М. Глушкова) |
| title_full |
Генерація та використання змагальної вибірки для протидії ухиленню ботнетів від виявлення нейронними мережами (до 100-річчя з дня народження академіка В.М. Глушкова) |
| title_fullStr |
Генерація та використання змагальної вибірки для протидії ухиленню ботнетів від виявлення нейронними мережами (до 100-річчя з дня народження академіка В.М. Глушкова) |
| title_full_unstemmed |
Генерація та використання змагальної вибірки для протидії ухиленню ботнетів від виявлення нейронними мережами (до 100-річчя з дня народження академіка В.М. Глушкова) |
| title_sort |
генерація та використання змагальної вибірки для протидії ухиленню ботнетів від виявлення нейронними мережами (до 100-річчя з дня народження академіка в.м. глушкова) |
| title_alt |
Generation and usе of adversarial samples to counter botnet evasion from neaural network detection (to the 100th anniversary of academician V.M. Glushkov birthday) Генерация и использование соревновательной выборки для противодействия устранению ботнетов от обнаружения нейронными сетями (к 100-летию со дня рождения академика В.М. Глушкова) |
| description |
Описано спосіб проведення оцінки надійності систем виявлення ботнетів на основі нейронних мереж, з точки зору їх вразливості до змагальних атак, і підвищення стійкості таких систем через розширення навчального набору штучними даними. Під «змагальною атакою» мається на увазі цілеспрямована спроба зловмисника штучно модифікувати дані (у даному разі — потоки мережевих пакетів) для спроби ухилення від виявлення класифікатором. Запропонований та реалізований метод генерації змагальних прикладів для системи класифікації трафіку на основі нейронної мережі шляхом адаптації «методу швидкого знаку градієнта», відомого з області обробки зображень, для роботи з мережевими даними, представленими у формі мережевих потоків. Характерними рисами описаного підходу є обчислювальна простота, а також правдоподібність отриманих прикладів трафіку. Правдоподібність штучно створених екземплярів потоків забезпечувалась накладанням глобальних споріднених груп ознак, над якими проводились модифікації. Окрім застосування описаного підходу, для оцінки вразливості моделей класифікації також показана можливість його застосування для доповнення початкової навчальної вибірки штучними даними. Спершу базова модель класифікації була навчена на відкритому наборі даних трафіку ботнетів. Далі початковий набір був розширений змагальними прикладами, згенерованими описаним методом, після цього було експериментально показано, що модель, навчена на розширених даних, більш стійка до змагальних атак порівняно з базовою. При цьому метод не є специфічним лише для області виявлення ботнетів, а може застосовуватися для мережевих атак іншого роду за умови наявності відповідного навчального набору. Запропоновано напрямки для подальшого розвитку цього підходу. |
| publisher |
V.M. Glushkov Institute of Cybernetics of NAS of Ukraine |
| publishDate |
2023 |
| url |
https://jais.net.ua/index.php/files/article/view/199 |
| work_keys_str_mv |
AT panchukbohdan generacíâtavikoristannâzmagalʹnoívibírkidlâprotidííuhilennûbotnetívvídviâvlennânejronnimimerežamido100ríččâzdnânarodžennâakademíkavmgluškova AT panchukbohdan generationanduseofadversarialsamplestocounterbotnetevasionfromneauralnetworkdetectiontothe100thanniversaryofacademicianvmglushkovbirthday AT panchukbohdan generaciâiispolʹzovaniesorevnovatelʹnojvyborkidlâprotivodejstviâustraneniûbotnetovotobnaruženiânejronnymisetâmik100letiûsodnâroždeniâakademikavmgluškova |
| first_indexed |
2025-10-30T02:48:47Z |
| last_indexed |
2025-10-30T02:48:47Z |
| _version_ |
1847373360972955648 |
| spelling |
oai:ojs2.jais.net.ua:article-1992024-03-14T10:24:21Z Генерація та використання змагальної вибірки для протидії ухиленню ботнетів від виявлення нейронними мережами (до 100-річчя з дня народження академіка В.М. Глушкова) Generation and usе of adversarial samples to counter botnet evasion from neaural network detection (to the 100th anniversary of academician V.M. Glushkov birthday) Генерация и использование соревновательной выборки для противодействия устранению ботнетов от обнаружения нейронными сетями (к 100-летию со дня рождения академика В.М. Глушкова) Panchuk, Bohdan мережеві потоки нейронні мережі системи виявлення вторгнень змагальні атаки доповнення даних ботнети network flows neural networks intrusion detection systems adversarial attacks data augmentation botnets сетевые потоки нейронные сети системы обнаружения вторжений соревновательные атаки дополнение данных ботнеты Описано спосіб проведення оцінки надійності систем виявлення ботнетів на основі нейронних мереж, з точки зору їх вразливості до змагальних атак, і підвищення стійкості таких систем через розширення навчального набору штучними даними. Під «змагальною атакою» мається на увазі цілеспрямована спроба зловмисника штучно модифікувати дані (у даному разі — потоки мережевих пакетів) для спроби ухилення від виявлення класифікатором. Запропонований та реалізований метод генерації змагальних прикладів для системи класифікації трафіку на основі нейронної мережі шляхом адаптації «методу швидкого знаку градієнта», відомого з області обробки зображень, для роботи з мережевими даними, представленими у формі мережевих потоків. Характерними рисами описаного підходу є обчислювальна простота, а також правдоподібність отриманих прикладів трафіку. Правдоподібність штучно створених екземплярів потоків забезпечувалась накладанням глобальних споріднених груп ознак, над якими проводились модифікації. Окрім застосування описаного підходу, для оцінки вразливості моделей класифікації також показана можливість його застосування для доповнення початкової навчальної вибірки штучними даними. Спершу базова модель класифікації була навчена на відкритому наборі даних трафіку ботнетів. Далі початковий набір був розширений змагальними прикладами, згенерованими описаним методом, після цього було експериментально показано, що модель, навчена на розширених даних, більш стійка до змагальних атак порівняно з базовою. При цьому метод не є специфічним лише для області виявлення ботнетів, а може застосовуватися для мережевих атак іншого роду за умови наявності відповідного навчального набору. Запропоновано напрямки для подальшого розвитку цього підходу. In this paper, we describe a method for assessing the reliability of botnet detection systems based on neural networks in terms of their susceptibility to adversarial attacks and enhancing the resilience of such systems through the augmentation of the training dataset with synthetic data. By «adversarial attack», we mean a deliberate attempt by an attacker to modify malicious data (in our case, network packet streams) in an effort to evade being detected by the classifier. In scope of this work, we implemented a method for generating adversarial examples for a traffic classification system based on a neural network, adapting the «fast sign gradient method» commonly used in image processing to work with network data represented as network flows. Key attributes of the suggested approach are computational simplicity and the plausibility of the generated traffic examples. Plausibility was ensured by imposing global and inter-feature constraints and identifying semantically related feature groups subjected to the modifications. In addition to applying the described approach to assess the vulnerability of classification models, we also demonstrated its applicability for augmenting the 19 initial training dataset with synthetic data. Initially, we trained the baseline classification model on an open dataset of botnet traffic. Subsequently, we augmented the initial dataset with adversarial examples generated using the described method. Experimental results showed that the model trained on the augmented data exhibited greater resilience to adversarial attacks in comparison to the baseline model. Importantly, this method is not specific to botnet detection and can be applied to other types of network attacks given an appropriate training dataset. In conclusion, we summarized our findings and suggested directions for further development of this approach. Описан способ проведения оценки надежности систем обнаружения ботнетов на основе нейронных сетей с точки зрения их уязвимости к соревновательным атакам и повышения устойчивости таких систем из-за расширения учебного набора искусственными данными. Под «состязательной атакой» подразумевается целенаправленная попытка злоумышленника искусственно модифицировать данные (в данном случае – потоки сетевых пакетов) для попытки уклонения от обнаружения классификатором. Предложенный и реализованный метод генерации соревновательных примеров для системы классификации трафика на основе нейронной сети путем адаптации «метода быстрого знака градиента», известного из области обработки изображений, для работы с сетевыми данными, представленными в форме сетевых потоков. Характерными чертами описанного подхода вычислительная простота, а также правдоподобность полученных примеров трафика. Правдоподобие искусственно созданных экземпляров потоков обеспечивалось наложением глобальных родственных групп признаков, над которыми проводились модификации. Кроме применения описанного подхода, для оценки уязвимости моделей классификации показана возможность его применения для дополнения начальной учебной выборки искусственными данными. Первоначально базовая модель классификации была обучена на открытом наборе данных трафика ботнетов. Далее начальный набор был расширен состязательными примерами, сгенерированными описанным методом, после чего было экспериментально показано, что модель, обученная на расширенных данных, более устойчива к состязательным атакам по сравнению с базовой. При этом метод не специфичен только для области обнаружения ботнетов, а может применяться для сетевых атак другого рода при наличии соответствующего учебного набора. Предложены направления дальнейшего развития этого подхода. V.M. Glushkov Institute of Cybernetics of NAS of Ukraine 2023-07-26 Article Article application/pdf https://jais.net.ua/index.php/files/article/view/199 10.34229/1028-0979-2023-5-6 Міжнародний науково-технічний журнал "Проблеми керування та інформатики"; Том 68 № 5 (2023): Міжнародний науково-технічний журнал "Проблеми керування та інформатики"; 71-85 International Scientific Technical Journal "Problems of Control and Informatics; Том 68 № 5 (2023): International Scientific Technical Journal "PROBLEMS OF CONTROL AND INFORMATICS"; 71-85 International Scientific Technical Journal "Problems of Control and Informatics"; Vol. 68 No. 5 (2023): International Scientific Technical Journal "PROBLEMS OF CONTROL AND INFORMATICS"; 71-85 2786-6505 2786-6491 10.34229/1028-0979-2023-5 uk https://jais.net.ua/index.php/files/article/view/199/285 Copyright (c) 2023 Bohdan Panchuk https://creativecommons.org/licenses/by-nc-nd/4.0 |