Оцінка стійкості систем розпізнавання образів до впливу зловмисних втручань

Neural networks have become an integral part of everyday life, and are now used from economics to military applications. Protecting these systems from malicious interference is an important component that ensures the effective operation of algorithms and the possibility of their further improvement....

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2025
Автори: Omelchenko, Bohdan, Shelestov, Andrii
Формат: Стаття
Мова:Ukrainian
Опубліковано: V.M. Glushkov Institute of Cybernetics of NAS of Ukraine 2025
Теми:
Онлайн доступ:https://jais.net.ua/index.php/files/article/view/530
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Problems of Control and Informatics

Репозитарії

Problems of Control and Informatics
id oai:ojs2.jais.net.ua:article-530
record_format ojs
institution Problems of Control and Informatics
baseUrl_str
datestamp_date 2025-10-22T12:28:31Z
collection OJS
language Ukrainian
topic нейронна мережа
метод розпізнавання
алгоритм класифікації
spellingShingle нейронна мережа
метод розпізнавання
алгоритм класифікації
Omelchenko, Bohdan
Shelestov, Andrii
Оцінка стійкості систем розпізнавання образів до впливу зловмисних втручань
topic_facet нейронна мережа
метод розпізнавання
алгоритм класифікації
neural network
recognition method
classification algorithm
format Article
author Omelchenko, Bohdan
Shelestov, Andrii
author_facet Omelchenko, Bohdan
Shelestov, Andrii
author_sort Omelchenko, Bohdan
title Оцінка стійкості систем розпізнавання образів до впливу зловмисних втручань
title_short Оцінка стійкості систем розпізнавання образів до впливу зловмисних втручань
title_full Оцінка стійкості систем розпізнавання образів до впливу зловмисних втручань
title_fullStr Оцінка стійкості систем розпізнавання образів до впливу зловмисних втручань
title_full_unstemmed Оцінка стійкості систем розпізнавання образів до впливу зловмисних втручань
title_sort оцінка стійкості систем розпізнавання образів до впливу зловмисних втручань
title_alt Assessment of the resilience of pattern recognition systems to the influence of malignant interferences
description Neural networks have become an integral part of everyday life, and are now used from economics to military applications. Protecting these systems from malicious interference is an important component that ensures the effective operation of algorithms and the possibility of their further improvement. The purpose of the study was to assess the stability of the pattern recognition algorithm to the use of malicious interference methods. The paper considers a recognition algorithm based on neural networks, namely a convolutional neural network, for training which a database of radar images of military equipment in the form of images of 8 different classes of vehicles was used [1]. Next, 4 different methods of generating modified data were applied to the selected images, namely the fast gradient method, the Carlini–Wagner algorithm, the predicted gradient descent method and the iterative impulse method, after which the modified data was added to the input data set and the stability of the recognition system was assessed. The article also provides the results of a comparative analysis of the considered methods. From the implemented malicious interventions on the image recognition system, it was determined that, considering the percentage of recognition, the algorithm turned out to be the most unstable to the predictive gradient descent (PGD) method, in which the image was recognized incorrectly with a probability of 92 %. But if we choose the method whose perturbations were the most imperceptible on the test image, then this is the Carlini–Wagner method, because with a probability of 52 % the image was recognized incorrectly, which will lead to a classification error when comparing images and classes using the maximum matching method. In the future, due to the fact that the recognition system turned out to be unstable to malicious interventions, there is a need for improved methods of protecting algorithms that will detect distorted images and effectively respond to changes in the input data.
publisher V.M. Glushkov Institute of Cybernetics of NAS of Ukraine
publishDate 2025
url https://jais.net.ua/index.php/files/article/view/530
work_keys_str_mv AT omelchenkobohdan assessmentoftheresilienceofpatternrecognitionsystemstotheinfluenceofmalignantinterferences
AT shelestovandrii assessmentoftheresilienceofpatternrecognitionsystemstotheinfluenceofmalignantinterferences
AT omelchenkobohdan ocínkastíjkostísistemrozpíznavannâobrazívdovplivuzlovmisnihvtručanʹ
AT shelestovandrii ocínkastíjkostísistemrozpíznavannâobrazívdovplivuzlovmisnihvtručanʹ
first_indexed 2025-10-30T02:49:20Z
last_indexed 2025-10-30T02:49:20Z
_version_ 1847373396126466048
spelling oai:ojs2.jais.net.ua:article-5302025-10-22T12:28:31Z Assessment of the resilience of pattern recognition systems to the influence of malignant interferences Оцінка стійкості систем розпізнавання образів до впливу зловмисних втручань Omelchenko, Bohdan Shelestov, Andrii нейронна мережа метод розпізнавання алгоритм класифікації neural network recognition method classification algorithm Neural networks have become an integral part of everyday life, and are now used from economics to military applications. Protecting these systems from malicious interference is an important component that ensures the effective operation of algorithms and the possibility of their further improvement. The purpose of the study was to assess the stability of the pattern recognition algorithm to the use of malicious interference methods. The paper considers a recognition algorithm based on neural networks, namely a convolutional neural network, for training which a database of radar images of military equipment in the form of images of 8 different classes of vehicles was used [1]. Next, 4 different methods of generating modified data were applied to the selected images, namely the fast gradient method, the Carlini–Wagner algorithm, the predicted gradient descent method and the iterative impulse method, after which the modified data was added to the input data set and the stability of the recognition system was assessed. The article also provides the results of a comparative analysis of the considered methods. From the implemented malicious interventions on the image recognition system, it was determined that, considering the percentage of recognition, the algorithm turned out to be the most unstable to the predictive gradient descent (PGD) method, in which the image was recognized incorrectly with a probability of 92 %. But if we choose the method whose perturbations were the most imperceptible on the test image, then this is the Carlini–Wagner method, because with a probability of 52 % the image was recognized incorrectly, which will lead to a classification error when comparing images and classes using the maximum matching method. In the future, due to the fact that the recognition system turned out to be unstable to malicious interventions, there is a need for improved methods of protecting algorithms that will detect distorted images and effectively respond to changes in the input data. Нейронні мережі стали невід’ємною складовою повсякденного життя і використовуються в різних галузях — від економіки до військової справи. Захистити ці системи від зловмисних втручань важливо для забезпечення ефективної роботи алгоритмів та можливості їх подальшого вдосконалення. Мета дослідження — оцінити стійкість алгоритму розпізнавання образів до зловмисних втручань. У роботі розглянуто алгоритм розпізнавання на прикладі нейронних мереж, а саме — згорткової нейронної мережі, для навчання якої використано базу даних радарних зображень військової техніки як знімків восьми різних класів машин [1]. До вибраних зображень застосовано чотири засоби генерації модифікованих даних — метод швидкого градієнтного знака, алгоритм Карліні–Вагнера, метод прогнозованого градієнтного спуску та ітераційний метод імпульсу. Модифіковані дані додано до вхідного набору даних, а також виконано оцінку стійкості системи розпізнавання. Представлено результати порівняльного аналізу розглянутих методів. Після вивчення реалізованих зловмисних втручань у систему розпізнавання образів визначено, що у відсотковому відношенні алгоритм виявився найбільш нестійким у разі застосування методу прогнозованого градієнтного спуску: зображення з імовірністю 92 % розпізнавалося неправильно. Найбільш непомітними на тестовому зображенні виявилися збурення після застосування методу Карліні–Вагнера: зображення з імовірністю 52 % розпізнавалося неправильно, що призвело до помилок у класифікації при зіставленні рисунків і класів методом максимального збігу. Отже, система розпізнавання виявилася нестійкою до зловмисних втручань і є потреба у вдосконаленні методів захисту алгоритмів, які будуть виявляти спотворені зображення та ефективно реагувати на зміни у вхідних даних. V.M. Glushkov Institute of Cybernetics of NAS of Ukraine 2025-08-20 Article Article application/pdf https://jais.net.ua/index.php/files/article/view/530 10.34229/1028-0979-2025-4-6 Міжнародний науково-технічний журнал "Проблеми керування та інформатики"; Том 70 № 4 (2025): Міжнародний науково-технічний журнал "Проблеми керування та інформатики"; 96-108 International Scientific Technical Journal "Problems of Control and Informatics; Том 70 № 4 (2025): International Scientific Technical Journal «Problems of Control and Informatics»; 96-108 International Scientific Technical Journal "Problems of Control and Informatics"; Vol. 70 No. 4 (2025): International Scientific Technical Journal «Problems of Control and Informatics»; 96-108 2786-6505 2786-6491 10.34229/1028-0979-2025-4 uk https://jais.net.ua/index.php/files/article/view/530/604 Copyright (c) 2025 Bohdan Omelchenko, Andrii Shelestov https://creativecommons.org/licenses/by-nc-nd/4.0