Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами
Розглянуто підхід до розробки адаптивних програмних рішень щодо автоматизованого виявлення, класифікації та захоплення цілей ударними безпілотними літальними апаратами (БПЛА). The paper considers an approach to the development of adaptive software solutions for automated detection, classification, a...
Збережено в:
| Опубліковано в: : | Проблеми керування та інформатики |
|---|---|
| Дата: | 2025 |
| Автори: | , , , , |
| Формат: | Стаття |
| Мова: | Українська |
| Опубліковано: |
Інститут кібернетики ім. В.М. Глушкова НАН України
2025
|
| Теми: | |
| Онлайн доступ: | https://nasplib.isofts.kiev.ua/handle/123456789/211448 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Цитувати: | Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами / І.П. Сініцин, А.Ю. Дорошенко, І.І. Кирилов, Я.В. Омельяненко, О.А. Яценко // Проблемы управления и информатики. — 2025. — № 5. — С. 5-18. — Бібліогр.: 29 назв. — укр. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1859642212257628160 |
|---|---|
| author | Сініцин, І.П. Дорошенко, А.Ю. Кирилов, І.І. Омельяненко, Я.В. Яценко, О.А. |
| author_facet | Сініцин, І.П. Дорошенко, А.Ю. Кирилов, І.І. Омельяненко, Я.В. Яценко, О.А. |
| citation_txt | Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами / І.П. Сініцин, А.Ю. Дорошенко, І.І. Кирилов, Я.В. Омельяненко, О.А. Яценко // Проблемы управления и информатики. — 2025. — № 5. — С. 5-18. — Бібліогр.: 29 назв. — укр. |
| collection | DSpace DC |
| container_title | Проблеми керування та інформатики |
| description | Розглянуто підхід до розробки адаптивних програмних рішень щодо автоматизованого виявлення, класифікації та захоплення цілей ударними безпілотними літальними апаратами (БПЛА).
The paper considers an approach to the development of adaptive software solutions for automated detection, classification, and target locking of strike unmanned aerial vehicles (UAVs).
|
| first_indexed | 2026-03-14T12:56:55Z |
| format | Article |
| fulltext |
© І.П. СІНІЦИН, А.Ю. ДОРОШЕНКО, І.І. КИРИЛОВ, Я.В. ОМЕЛЬЯНЕНКО, О.А. ЯЦЕНКО, 2025
Міжнародний науково-технічний журнал
Проблеми керування та інформатики, 2025, № 5 5
АДАПТИВНЕ КЕРУВАННЯ ТА МЕТОДИ ІДЕНТИФІКАЦІЇ
УДК 004.424, 004.932, 004.93/.94, 629.735, 623.746.9
І.П. Сініцин, А.Ю. Дорошенко, І.І. Кирилов,
Я.В. Омельяненко, О.А. Яценко
АДАПТИВНІ ПРОГРАМНІ РІШЕННЯ
ЩОДО АВТОМАТИЗОВАНОГО ВИЯВЛЕННЯ,
КЛАСИФІКАЦІЇ, ЗАХОПЛЕННЯ
ТА УРАЖЕННЯ ЦІЛЕЙ УДАРНИМИ
БЕЗПІЛОТНИМИ ЛІТАЛЬНИМИ АПАРАТАМИ
Сініцин Ігор Петрович
Інститут програмних систем НАН України, м. Київ,
https://orcid.org/0000-0002-4120-0784
ips@nas.gov.ua
Дорошенко Анатолій Юхимович
Інститут програмних систем НАН України, м. Київ, Національний технічний уні-
верситет України «Київський політехнічний інститут імені Ігоря Сікорського»,
https://orcid.org/0000-0002-8435-1451
doroshenkoanatoliy2@gmail.com
Кирилов Іван Ігорович
Інститут програмних систем НАН України, м. Київ,
https://orcid.org/0009-0006-9756-5391
ivan.kyrylov.science@gmail.com
Омельяненко Ярослав Вікторович
Інститут програмних систем НАН України, м. Київ,
https://orcid.org/0000-0002-2190-5664
yaric@newground.com.ua
Яценко Олена Анатоліївна
Інститут програмних систем НАН України, м. Київ,
https://orcid.org/0000-0002-4700-6704
oayat@ukr.net
Дослідження виконано за фінансової підтримки НАН України в межах державного проєкту
0124U000686 «Розроблення методів і засобів для програмно-технологічної платформи автоматизації
управління ресурсами та інформаційно-аналітичної діяльності у сфері безпеки та оборони України»,
що реалізується відповідно до Постанови Бюро Відділення інформатики НАН України від 13.07.2023
(протокол № 1).
mailto:ivan.kyrylov.science@gmail.com
6 ISSN 2786-6491
Розглянуто підхід до розробки адаптивних програмних рішень щодо авто-
матизованого виявлення, класифікації та захоплення цілей ударними без-
пілотними літальними апаратами (БПЛА). Актуальність дослідження
зумовлена зростанням потреби в автономних бойових системах, здатних
до оперативного аналізу та точного ураження цілей за умов складного та
динамічного середовища, зокрема дії засобів радіоелектронної боротьби,
перешкод, зашумлення або відсутності сигналів супутникової навігації. За-
безпечення надійної роботи БПЛА за таких умов потребує інтелектуальних
алгоритмів обробки даних, за допомогою яких можна адаптувати поведін-
ку системи до змін ситуації у реальному часі та мінімізувати ризик збоїв.
Запропоноване рішення ґрунтується на сучасних методах комп’ютерного
зору, глибокого навчання та алгоритмах машинного навчання, реалізова-
них у модульній архітектурі на базі ROS2 та середовища Kubernetes, що
забезпечує гнучке керування сервісами, масштабованість і високу відмово-
стійкість. На відміну від традиційних підходів, за допомогою представле-
ної архітектури можна легко інтегрувати нові модулі й забезпечити швид-
ку адаптацію у разі виявлення нових класів цілей чи зміни вимог щодо
бойових завдань. Платформа, що розробляється, включає шість ключових
підсистем: збір і підготовка даних; створення моделей комп’ютерного зору
та класифікації; реалізація бортового програмного забезпечення (ПЗ)
БПЛА; симуляція; валідація; а також модуль для тестування на реальному
обладнанні. Це дає змогу здійснювати повноцінний цикл дослідження та
верифікації — від формування датасетів і навчання моделей до інтеграції
в реальні умови експлуатації. Для тестування поведінки системи за умов,
наближених до реальних, інтегровано симуляційне середовище Microsoft
AirSim з можливістю варіативного налаштування сцен і параметрів, за до-
помогою якого можна перевірити роботу алгоритмів у широкому спектрі
сценаріїв. Подальші дослідження будуть спрямовані на розширення біблі-
отеки типів цілей та удосконалення методів визначення їхньої пріоритет-
ності; впровадження адаптивного навчання на борту; а також інтеграцію
з іншими системами ситуаційної обізнаності для підвищення ефективності
та автономності прийняття рішень.
Ключовi слова: безпілотний літальний апарат, комп’ютерний зір, штуч-
ний інтелект, глибоке навчання, класифікація цілей, фіксація наведення на
цілі, симуляція.
Вступ
Актуальність даного дослідження зумовлена зростанням вимог до точності,
швидкості та автономності сучасних бойових систем. За допомогою штучного ін-
телекту можна автоматизувати процеси виявлення та класифікації цілей, що знач-
но підвищує ефективність і зменшує залежність від людського фактора за умов,
коли критично важливими є швидке прийняття рішень і точність. Крім того,
впровадження таких технологій у системи БПЛА сприяє посиленню обороноздат-
ності, знижує ризик помилок та підвищує ефективність ураження цілей на полі
бою. Ударні БПЛА призначені для нанесення ударів по визначених цілях, осна-
щені озброєнням, за допомогою якого можна вражати наземні або повітряні
об’єкти. Основна мета таких апаратів — виконання бойових завдань, зокрема
знищення ворожих позицій, техніки, об’єктів інфраструктури тощо. Сучасні
підходи до застосування нейронних мереж, комп’ютерного зору та алгоритмів
машинного навчання роблять дане дослідження особливо актуальним щодо зміц-
нення технологічного потенціалу та розвитку інновацій у сфері оборонних тех-
нологій.
Завдяки швидкому розвитку технологій з виявлення цілей стало зручно зби-
рати дані за допомогою аерофотозйомки[1–3]. Однією з основних проблем ком-
п’ютерного зору є те, що традиційні методи виявлення об’єктів ґрунтуються на
статистичних підходах [4], однак зі збільшенням обсягів даних продуктивність
таких методів суттєво знижується. Виникають труднощі, пов’язані з «вибухом
Міжнародний науково-технічний журнал
Проблеми керування та інформатики, 2025, № 5 7
розмірності» ознак, що потребує значно більшого обсягу пам’яті та часу обробки.
З появою технології глибокого навчання [5–7] високорівневі характеристики зо-
бражень можна вилучати за допомогою кількох згорток та об’єднаних шарів і
у такий спосіб виявляти об’єкти. На основі глибокого навчання у разі виявлення
об’єктів для БПЛА можна отримувати та аналізувати інформацію про наземну
сцену в режимі реального часу під час польоту, що покращує сприйняття та інтелект
БПЛА. Однак існує багато проблем щодо виявлення ударних БПЛА порівняно з на-
земними об’єктами, як-от проблема низької якості зображення та складного фону [8].
Класичні глибокі нейронні мережі для виявлення об’єктів поділяються на два
типи: одноступеневі та двоступеневі. У разі одноступеневих, як-от YOLO (You Only
Look Once) [9, 10] та SSD (Single Shot Multibox Detector) [11], виявлення об’єктів ви-
конується за один крок: одразу генеруються координати прямокутника для кожного
об’єкта та здійснюється його класифікація. За допомогою таких мереж аналізується
все зображення одночасно, що дає змогу досягти високої швидкості обробки. Щодо
двоступеневих мереж –– R-CNN (Region-based Convolutional Neural Network) [12] і
Faster R-CNN [13, 14] –– виявлення виконується у два етапи. Спочатку на зображенні
виділяються регіони, які можуть містити об’єкти (перший етап), а потім, на основі
цього, класифікуються та уточнюються межі об’єктів (другий етап). Це дає змогу для
більш детального опрацювання кожного можливого об’єкта, внаслідок чого часто
збільшується точність. Одноступеневі мережі мають значні переваги щодо застосу-
вання БПЛА завдяки високій швидкості обробки даних у реальному часі.
Для автоматизації розробки нейромереж застосовуються відомі реалізації ме-
тоду нейроеволюції з відкритим кодом. Даним методом користуються у разі авто-
матизації створення нейромереж з метою розпізнавання певних класів об’єктів. На
відміну від ручних методів, за його допомогою в процесі проєктування можна од-
ночасно змінювати і вагові коефіцієнти зв’язків між вузлами, і топологію вузлів.
Однією з найвідоміших реалізацій нейроеволюційних алгоритмів є нейроеволюція
нарощення топології (NeuroEvolution of Augmenting Topologies — NEAT) [15, 16].
Метою даної статті є створення адаптивних програмних рішень для автома-
тизованого виявлення та класифікації цілей з подальшим визначенням пріоритет-
ності та фіксацією наведення на заключному етапі польоту ударного БПЛА. До-
слідження передбачає розробку архітектури прототипу програмної системи вияв-
лення, класифікації, захоплення та ураження цілей на основі штучного інтелекту.
Система контролю ударного БПЛА та керування ним має інтегруватися
з системами ситуаційної обізнаності, такими як розроблена в Інституті програм-
них систем НАНУ платформа динамічного керування ресурсами DRMS (Dynamic
Resource Management System) [17], для відображення на мапі в режимі реального
часу з можливістю керування ураженням цілей.
Аналіз альтернативних підходів розв’язання проблеми
Проблема виявлення та класифікації об’єктів за допомогою даних з БПЛА
зумовлена низкою чинників: низька якість відеопотоку, складний та динамічний
фон, зміни масштабу та освітлення, а також необхідність обробки інформації
в режимі реального часу [1–3, 8]. Для її розв’язання застосовуються традиційні
статистичні методи сегментації та виділення об’єктів [4], які є базовими, проте
недостатньо стійкі за умов шумів і швидкої зміни сцени.
Альтернативні підходи щодо подолання вищезазначеної проблеми умовно
можна поділити на кілька груп:
• класичні методи комп’ютерного зору. Такі алгоритми фільтрації та виділення
ознак, як SIFT (Scale-Invariant Feature Transform) [18], SURF (Speeded-Up Robust
Features) [19], HOG (Histogram of Oriented Gradients) [20], забезпечують початкове
8 ISSN 2786-6491
розв’язання задачі, однак вони малоефективні у разі змінних умов зйомки. За до-
помогою методів статистичного моделювання фону [4] можна підвищити якість
виявлення рухомих об’єктів, але вони залишаються вразливими до складного
фону й змін освітлення, що призводить до хибних спрацювань або втрати частини
об’єктів;
• глибокі згорткові нейронні мережі. За допомогою одноступеневих архітек-
тур (YOLO [9, 10], SSD [11]) забезпечується висока швидкодія, що критично для
БПЛА, тоді як із застосуванням двоступеневих підходів –– R-CNN (Region-based
Convolutional Neural Network) [12], Faster R-CNN [13, 14] –– демонструється вища
точність, проте знижується швидкість обробки. Останні модифікації, наприклад
YOLOv7 та YOLOv8, показують здатність працювати з низькоякісними зобра-
женнями та за умов складного фону [8];
• моделі на основі трансформерів. Із застосуванням Vision Transformer (ViT) [21]
та DETR (Detection Transformer) [22] відкриваються нові можливості для обробки
повноцінного зображення як послідовності ознак, а отже, краще враховується
глобальний контекст сцени, що важливо для виявлення малих цілей на складному
фоні. Однак ці підходи потребують значних обчислювальних ресурсів, що обме-
жує їх застосування на борту БПЛА;
• мультимодальні та гіперспектральні методи. Об’єднання даних від різних
сенсорів (видимий спектр, інфрачервоний діапазон, радіолокаційні системи) та за-
стосування методів багатоспектральної / гіперспектральної обробки [6, 7] дає змо-
гу значно підвищити стійкість системи до завад та маскування об’єктів. Цей на-
прям є перспективним, однак такі методи потребують складнішого бортового об-
ладнання, внаслідок чого збільшується маса й енергоспоживання БПЛА;
• методи відстеження цілей. Для підвищення надійності часто застосовують-
ся алгоритми трекінгу KLT (Kanade–Lucas–Tomasi Tracker) [23], SORT (Simple
Online and Realtime Tracking) [24], DeepSORT (Deep Simple Online and Realtime
Tracking) [25]. Ці алгоритми забезпечують стійке супроводження цілі навіть за
умов часткової втрати даних, шуму зображення, часткової оклюзії або інших пе-
решкод, що виникають у реальному середовищі спостереження [3]. Це дає змогу
компенсувати обмеження одноразового детектування;
• еволюційні та адаптивні методи. За допомогою підходів на основі нейро-
еволюції, зокрема NEAT [15, 16], можна автоматично адаптувати структуру ней-
ронних мереж до специфіки даних. Завдяки таким методам зменшується залеж-
ність від ручної архітектурної оптимізації та забезпечується гнучкість системи
у разі зміни умов бойового застосування.
Отже, на сучасному етапі для розв’язання проблеми виявлення та класифіка-
ції об’єктів за допомогою даних з БПЛА застосовується широкий спектр підходів:
від класичних алгоритмів комп’ютерного зору та статистичного моделювання до
сучасних глибоких нейронних мереж, трансформерів та еволюційних методів.
Кожен з них має свої переваги й обмеження, що обумовлює потребу в розроблен-
ні гібридних та адаптивних рішень, які можуть поєднувати швидкодію, точність
і стійкість до завад за складних умов бойових дій.
Загальна інформація про платформу
Дослідження спрямоване на розробку методів та програмних засобів для
виявлення, класифікації та ураження цілей з використанням технологій штуч-
ного інтелекту (Artificial Intelligence — AI) та комп’ютерного зору (Computer
Vision — CV).
Мета роботи полягає у створенні платформи, яка забезпечить високотехноло-
гічні рішення для візуального термінального наведення на цілі та розпізнавання їх
у разі радіоелектронної боротьби (РЕБ).
Міжнародний науково-технічний журнал
Проблеми керування та інформатики, 2025, № 5 9
Відповідно до поставленої мети основні завдання дослідження такі:
1) створення прототипу платформи (Minimum Viable Product — MVP) як
функціонального мінімального життєздатного продукту для виявлення цілей і на-
ведення на них;
2) валідація —– тестування технології в симуляційних середовищах та на ре-
альних БПЛА;
3) накопичення досвіду –– розвиток внутрішньої експертизи в сфері AI / CV
для оборонних застосувань;
4) сприяння виробникам БПЛА –– надання доступу українським виробникам
до передових технологій задля підвищення конкурентоспроможності.
Головна задача полягає у створенні та підготовці програмного оточення, влас-
не — симулятора, що імітує роботу БПЛА для тестування системи автоматизованого
виявлення та класифікації цілей, визначення пріоритетної та фіксації наведення на
неї. Взаємодія симулятора із системою керування БПЛА відбувається завдяки обміну
сигналами у такий спосіб: він передає дані про стан апарата, отримує команди та від-
повідно реагує на них — коригує параметри та імітує роботу частин БПЛА, як-от дви-
гуни, датчики висоти та швидкості, відеокамери тощо. Це дає змогу тестувати розроб-
лену систему за допомогою моделювання різних сценаріїв з виявленням та уражен-
ням цілей для перевірки її роботи в умовах, максимально наближених до реальних.
Реалізація системи передбачає виконання таких етапів:
1) дослідження та розробка –– вивчення наявних рішень на базі AI / CV, про-
ведення аналізу щодо потреб ринку;
2) прототипування –– створення MVP, що містить ключові компоненти плат-
форми;
3) тестування та валідація –– проведення тестів у середовищі Microsoft
AirSim та реальних умовах із застосуванням БПЛА;
4) навчання та документація –– розробка методології навчання для користу-
вачів, створення документації з описом функцій системи;
5) моніторинг та вдосконалення –– збір відгуків користувачів для покращен-
ня функціональних можливостей платформи.
Архітектура технічного рішення
Загальна архітектура серверного середовища (рис. 1), що розробляється для
системи виявлення, класифікації, захоплення та ураження цілей на основі штуч-
ного інтелекту, ґрунтується на платформі Kubernetes (для керування розгортанням
та масштабуванням мікросервісів), зокрема її варіанті Minikube. Необхідні ком-
поненти програмного оточення симулятора наведено на рис. 2.
На платформі розгорнуто такі загальні сервіси:
• Minio S3 –– для зберігання файлів з наборами даних, моделей машинного
навчання (Machine Learning — ML) тощо;
• GitLab –– для зберігання конфігурацій, налаштувань, вихідного коду та ін.;
• PostgreSQL –– для збереження реляційних даних;
• QuestDB –– для збереження неструктурованих даних та метрик у вигляді
часових рядів тощо;
• Prometheus –– для моніторингу роботи всіх складових компонентів плат-
форми;
• Grafana –– для графічного відображення станів системи в цілому та її окре-
мих компонентів.
Для керування компонентами робототехнічної системи та їхньої інтеграції
в загальну платформу застосовується Robot Operating System (ROS) [26] — про-
грамна платформа з відкритим вихідним кодом, що включає набір бібліотек та
10 ISSN 2786-6491
інструментів для розробки робототехнічного програмного забезпечення. За допо-
могою ROS забезпечується керування життєвим циклом компонентів робототех-
нічної системи та їх оркестрація, оскільки підтримується обмін повідомленнями
за моделлю публікації / підписки. Застосування платформи сприяє реалізації мік-
росервісної архітектури, в якій кожен мікросервіс може бути реалізований за до-
помогою будь-якої з основних мов програмування, що підтримуються ROS.
Рис. 1
Кожне автоматизоване робоче місце (АРМ) має відповідний мікросервіс або
набір мікросервісів, розгорнутих на платформі, життєвий цикл яких забезпечує
Kubernetes. Завдяки програмним компонентам kube-apiserver (аутентифікація та
авторизація) та kube-controller-manager (контроль стану доступу до ресурсів),
а також можливостям ведення журналів подій і аудиту, за допомогою Kubernetes
гарантується безпека системи.
Програмне оточення симулятора передбачає наявність таких ключових ком-
понентів, як система керування БПЛА; перетворювач сигналів у зрозумілий для
БПЛА формат (MAVLink); графічна симуляція польоту БПЛА.
У розширеній архітектурі симулятор має замінити апаратні частини керуван-
ня БПЛА та сенсори.
ROS
Вхід із
камери
БПЛА Б
л
о
к
в
ід
ео
п
о
то
к
у
Модель
відстеження
об’єктів
Модель
виявлення
об’єктів
Модуль
моделей
машинного
навчання
Блок
деталей
відстеження
x, y, w, h
Блок
керування
відстеженням
Блок
цілей
Б
л
о
к
т
ел
ем
ет
р
ії
SQLite.
Сховище
метаданих
цільових
об’єктів
Модуль
пріоритет-
ності цілей
Модуль
підключення
MAVLink
Блок
керування
БПЛА
Модуль
захоплення
та відстеження
цілей
Тангаж,
рискання,
крен
публікація
підписка
Міжнародний науково-технічний журнал
Проблеми керування та інформатики, 2025, № 5 11
Рис. 2
Як одне з рішень реалізації поставленої задачі запропоновано такі програмні
продукти:
• Mission Planner [27] –– для виконання функції базової станції керування
БПЛА завдяки великій кількості команд;
• ArduCopter SITL [28] –– для перетворення команд з формату Mission Plan-
ner в MAVLink;
• Microsoft AirSim [29], в якому детально реалізовано політ БПЛА з ураху-
ванням фізичних явищ (таких, як зіткнення) та керування БПЛА за допомогою
команд.
Схему функціональної архітектури платформи представлено на рис. 3.
Рис. 3
Потенційні виконавці
Наукові установи ІТ-компанії
Оборонні підприємства
Користувачі
(оператори БПЛА,
аналітики)
Платформа
Джерела даних
(супутникові знімки,
відео з БПЛА,
інші сенсори)
Підсистема збору
та підготовки даних
(маркування, створення
датасетів, аугментація)
Графічний інтерфейс
користувача
Бортове ПЗ на ROS2
(базова система
керування БПЛА)
Пакети AI / CV
(модулі для обробки
відеопотоку,
нейромережі для
розпізнавання цілей)
Інтеграція
з симулятором (AirSim)
Методології
машинного навчання
Симулятор
Система
керування
Перетворювач
сигналів
Графічний
симулятор
Автоматизо-
вана система
розпізнавання
та фіксації
цілей
12 ISSN 2786-6491
Архітектура складається з таких рівнів:
• верхній рівень — оператори БПЛА та аналітики взаємодіють через графіч-
ний інтерфейс користувача (GUI), здійснюють керування БПЛА, моніторинг місії
та аналіз результатів;
• середній рівень:
— бортове ПЗ на ROS2 забезпечує базову систему керування БПЛА;
— пакети AI / CV виконують обробку відеопотоку та розпізнавання цілей;
— інтеграція з симулятором (AirSim) дає змогу тестувати та валідувати алго-
ритми керування й розпізнавання в безпечному середовищі;
— методології машинного навчання забезпечують підготовку даних, навчан-
ня моделей і оптимізацію алгоритмів;
• нижній рівень:
— джерела даних (супутникові знімки, відео з БПЛА, інші сенсори) забезпе-
чують отримання первинної інформації для аналізу;
— підсистема збору та підготовки даних виконує маркування, створення на-
борів даних та керування ними, а також аугментацію для підвищення якості моделей.
Підсистеми платформи наведено на рис. 4.
Концепція автоматизованих експериментів та опис платформи
У процесі експериментального дослідження виявлено низку проблем, що
істотно впливають на стабільність і ефективність оцінки результатів:
— моделі YOLO демонструють варіативність результатів залежно від вхід-
них даних, конфігурацій параметрів, характеристик сцени, а також апаратного за-
безпечення, що використовується (зазначимо, що питання дослідження продук-
тивності нейромереж YOLO для вбудованих систем і дронів на широкому спектрі
апаратних платформ стане предметом окремої публікації);
— процес ручного налаштування місій в ArduPilot або керування об’єктами
в середовищі AirSim є трудомістким і потребує значного часу з боку розробників;
— значна кількість параметрів конфігурації (зокрема моделі, сцени, авто-
пілот) суттєво впливає на вихідні результати, що ускладнює відтворюваність екс-
периментів;
— немає інструментів для системного аналізу та формальної валідації ре-
зультатів експериментальних запусків;
— спостерігається нестача уніфікованих метрик для оцінки якості роботи
системи.
У зв’язку з цим сформульовано мету даного етапу роботи:
— забезпечити прискорення циклу проведення експериментів із використан-
ням моделей та автопілотних систем;
— стабілізувати та підвищити відтворюваність експериментальних резуль-
татів;
— уніфікувати процедури проведення експериментів для забезпечення фор-
мальної валідації та аналізу;
— закласти методологічні та технічні основи для побудови АРМ, орієнтованого
на дослідження, тестування й інтеграцію інтелектуальних компонентів системи.
Платформа, що розробляється, включає такі компоненти:
1) бортове програмне забезпечення БПЛА на ROS2: модульна система, що
забезпечує інтеграцію функцій керування в БПЛА на базі ROS2;
2) пакети AI / CV: модулі для обробки відеопотоку в реальному часі для ви-
явлення, класифікації та наведення на цілі;
3) моделі нейромереж: навчені моделі, призначені для розпізнавання специ-
фічних типів цілей;
Міжнародний науково-технічний журнал
Проблеми керування та інформатики, 2025, № 5 13
4) інтеграція з симулятором: тестування алгоритмів у середовищі Microsoft
AirSim;
5) методологія та інструменти навчання: надання засобів для підготовки та
навчання моделей відповідно до специфічних потреб клієнтів;
6) інструменти маркування даних: засоби для підготовки та аугментації
даних.
Рис. 4
Система складається з програмних компонентів CVAT (Computer Vision An-
notation Tool), YOLO, ArduPilot, AirSim та програм для конфігурації та передачі
даних між компонентами:
— CVAT — виконує функції розмітки даних та їх організацію у відповідний
формат (вихідними даними є структурований розмічений набір даних);
— конфігуратор YOLO — для структуризації набору даних згідно з форма-
том YOLO та підготовки параметрів для моделі за такими вихідними даними, як
файл конфігурації YOLO, набір даних у форматі YOLO;
— тренування YOLO — для підготовки моделі та збору результатів навчання
відповідно до вихідних даних (готова модель; дані тренування, тобто зображення
з анотаціями; проміжні результати; метрики моделі);
RabbitMQ
PostgreSQL
Опис
метрик
○
Моделі та їх
підготовка
Керування
операціями /
місіями
Temporal
Керування
симулято-
рами
Результати
та метрики
QuestDB
Обробка
даних
(маркування /
аугментація
Генератор
даних
Керування
даними
Minio S3
Керування
моделями
Підготовка
моделей
Керування
наборами
даних ●
Метрики,
симуляції,
моделі
●
Інформація
щодо
наборів
даних
Дані для тренуван-
ня моделей
○
Параметри
генерації
○
Маркування /
аугментація
○
●
Модель для
бортового
ПЗ
Дані щодо
операції /
місії
○
Параметри
симуляції
○
Підсистема
збору та
обробки
даних
Первинна
обробка
даних
Балансу-
вальник
Валідатор
даних
Підсистема
підготовки
моделей
○
Моделі /
конфігурація
моделі
○
Створення, редагування,
отримання,
видалення даних
Підсистема
симуляції та
валідації
14 ISSN 2786-6491
— налаштування місії — передбачає опис завдання для автопілота з вихід-
ними даними про те, що має робити БПЛА після запуску;
— ArduPilot — для керування об’єктом (вихідними даними є команди для БПЛА);
— налаштування сцени — для підготовки сцен та керування ними (як вихідні
дані обрано сцену для AirSim);
— AirSim — для імітації об’єкта та навколишнього середовища;
— метрики та дані — для збору даних по моделях (конфігурації та результати
тренувань моделей), місії (конфігурації та результати місій, метрики, дані роботи
об’єкта) та сцені (конфігурації сцени).
Схему системи представлено на рис. 5.
Рис. 5
Прототип платформи має такі спроможності:
1) здатність до високоточного наведення на конкретний, заздалегідь визначе-
ний, візуальний орієнтир або сегмент на моделі будівлі в симуляторі AirSim;
2) надійне розпізнавання та наведення на один конкретний тип стандартизо-
ваного промислового об’єкта (наприклад, цех виробничого підприємства, конк-
ретна цистерна НПЗ) в симуляторі та, за можливості, на реальному стенді;
3) підтримка розпізнавання та наведення на деякі інші об’єкти критичної ін-
фраструктури (конкретний перелік потребує визначення) або військові цілі (літаки).
Платформа включає шість підсистем, що розглядаються далі.
1. Підсистема збору та підготовки даних. За допомогою цієї підсистеми за-
безпечується ідентифікація основних джерел даних, зокрема супутникових знім-
ків, відео з БПЛА та даних симуляцій. Вона надає методологію та інструментарій
для маркування даних з використанням обмежувальних рамок (bounding boxes) та
методів сегментації цільових наборів даних і керування ними, а також застосу-
ванням методів аугментації для підвищення різноманітності та якості даних. Для
підтримки цих процесів і планування місій створюється відповідне АРМ.
2. Підсистема розробки моделей комп’ютерного зору та машинного навчання
(CV / ML). У результаті дослідження та порівняльного аналізу для задач виявлення
Результати тренувань
Нерозмічений датасет
CVAT CVAT — система розмітки датасетів
Готовий датасет
Конфігуратор YOLO
Конфігурація, готовий датасет
Тренування YOLO Налаштування місії
Дані щодо місії
(куди летіти, що робити)
ArduPilot Результати місії Метрики та дані
Керування об’єктом
AirSim Сцена Налаштування
сцени
Дані щодо сцени
Міжнародний науково-технічний журнал
Проблеми керування та інформатики, 2025, № 5 15
та класифікації об’єктів обрано архітектуру згорткових нейронних мереж (CNN),
зокрема YOLO. Проведено навчання моделей та їх подальше тонке налаштування
з орієнтацією на виявлення об’єктів.
3. Підсистема розробки моделей класифікації. Визначено метод реалізації
класифікації цілей за критерієм «впливу на економіку оборонно-промислового
комплексу». БПЛА здійснює вибір цілі з попередньо визначеної бібліотеки та
формує оптимальну траєкторію атаки. Розробляється модуль класифікації, інтег-
рований до АРМ підготовки даних і планування місій.
4. Підсистема бортового програмного забезпечення БПЛА (на основі ROS2).
Розробляється архітектура вузлів ROS2 з визначенням відповідних тематичних
каналів, сервісів та дій. Інтегруються навчені моделі CV до ROS2-вузлів. Реалізу-
ються інтерфейси для приймання відеопотоку (у тому числі з симулятора), алго-
ритми обчислення команд коригування та інтерфейс передачі цих команд системі
керування польотом.
5. Підсистема симуляції та валідації. Налаштовано середовище Microsoft
AirSim: реалізовано сцени та створено моделі цілей. Проведено інтеграцію
ROS2-вузлів із середовищем симуляції. Проведено симуляційні експерименти.
Сформовано централізоване середовище моделювання AirSim, а також створено
АРМ-тестування, яке забезпечує побудову сценаріїв, їх виконання та подальший
аналіз результатів.
Як приклад на рис. 6 наведено знімки екранів інструментів Mission Planner та
AirSim, за допомогою яких здійснюється моделювання підйому коптера.
Рис. 6
16 ISSN 2786-6491
Висновок
У межах виконаного дослідження розроблено архітектуру програмної плат-
форми для автоматизованого виявлення, класифікації та ураження цілей ударними
БПЛА на основі технологій штучного інтелекту, комп’ютерного зору та машинного
навчання. Запропоновані архітектурні та алгоритмічні рішення забезпечують мож-
ливість створення адаптивної, масштабованої та функціонально завершеної систе-
ми, здатної до інтеграції з наявними інструментами ситуаційної обізнаності.
Платформа, що розробляється, включає повний цикл функціональних компонен-
тів, серед яких підсистема збору та підготовки даних; модулі нейронних мереж для
виявлення, класифікації та визначення пріоритетних цілей; бортове програмне забез-
печення БПЛА (ROS2); середовище моделювання та валідації (AirSim); інтерфейси
для планування місій; інструменти для автоматизованих експериментів.
Результати валідації засвідчили здатність системи до високоточних дій,
зокрема наведення на візуальні орієнтири в умовах симуляції; надійне розпізна-
вання об’єктів критичної інфраструктури; адаптацію до умов радіоелектронної
боротьби та відсутності GPS.
Розроблений підхід дає змогу суттєво підвищити автономність бойових дій
із застосуванням БПЛА, зменшити залежність від оператора, а також сформувати
основу для подальшого вдосконалення інтелектуальних систем ураження.
У майбутніх дослідженнях планується розширення бібліотеки типів цілей,
удосконалення методів визначення пріоритетних цілей та розвиток елементів
адаптивного навчання на борту.
I. Sinitsyn, A. Doroshenko, I. Kyrylov, Ia. Omelianenko, O. Yatsenko
ADAPTIVE SOFTWARE SOLUTIONS
FOR AUTOMATED DETECTION, CLASSIFICATION,
TRACKING AND ENGAGEMENT OF TARGETS
BY STRIKE UNMANNED AERIAL VEHICLES
Igor Sinitsyn
Institute of Software Systems of the National Academy of Sciences of Ukraine, Kyiv,
ips@nas.gov.ua
Anatoliy Doroshenko
Institute of Software Systems of the National Academy of Sciences of Ukraine,
National Technical University of Ukraine «Igor Sikorsky Kyiv Polytechnic Institute»,
Kyiv,
doroshenkoanatoliy2@gmail.com
Ivan Kyrylov
Institute of Software Systems of the National Academy of Sciences of Ukraine, Kyiv,
ivan.kyrylov.science@gmail.com
Iaroslav Omelianenko
Institute of Software Systems of the National Academy of Sciences of Ukraine, Kyiv,
yaric@newground.com.ua
Olena Yatsenko
Institute of Software Systems of the National Academy of Sciences of Ukraine, Kyiv,
oayat@ukr.net
mailto:ivan.kyrylov.science@gmail.com
Міжнародний науково-технічний журнал
Проблеми керування та інформатики, 2025, № 5 17
The paper considers an approach to the development of adaptive software solutions for
automated detection, classification, and target locking of strike unmanned aerial ve-
hicles (UAVs). The relevance of the study is determined by the growing need
for autonomous combat systems capable of rapid analysis and accurate engagement
of targets in complex and dynamic environments, particularly under conditions
of electronic warfare, interference, signal noise, or the absence of satellite navigation
signals. Ensuring reliable UAV operation in such conditions requires the use of intelli-
gent data processing algorithms that enable the system to adapt its behavior to real-
time situational changes and minimize the risk of failures. The proposed solution is
based on modern methods of computer vision, deep learning, and machine learning
algorithms, implemented in a modular architecture built on ROS2 and the Kubernetes
environment, which ensures flexible service management, scalability, and high fault
tolerance. Unlike traditional approaches, the proposed architecture allows for easy in-
tegration of new modules and provides the ability to rapidly adapt to the emergence
of new target classes or changing mission requirements. The developed platform com-
prises six key subsystems: data collection and preprocessing, creation of computer vi-
sion and classification models, implementation of onboard UAV software, a simula-
tion and validation subsystem, as well as a module for testing on real hardware. This
enables a complete research and verification cycle — from dataset formation and
model training to integration in real operational conditions. The Microsoft AirSim
simulation environment is integrated to test system behavior in conditions close to re-
ality, with the ability to variably configure scenes and parameters, which makes it pos-
sible to evaluate algorithm performance across a wide range of scenarios. Future re-
search will focus on expanding the library of target types, improving methods of their
prioritization, implementing adaptive onboard learning, and integrating with other
situational awareness systems to enhance decision-making efficiency and autonomy.
Keywords: unmanned aerial vehicle, computer vision, artificial intelligence,
deep learning, target classification, targeting fixation, simulation.
ПОСИЛАННЯ
1. Tang G., Ni J., Zhao Y., Gu Y., Cao W. A survey of object detection for UAVs based on deep
learning. Remote Sensing. 2024. Vol. 16, N 1. P. 1–29. DOI: https://doi.org/10.3390/rs16010149
2. Drone detection and classification using computer vision / R. Valaboju, Vaishnavi, C. Harshitha,
A.R. Kallam, B.S. Babu. The proceedings of the 7th International Conference on Trends in
Electronics and Informatics (ICOEI). India: Tirunelveli, 11–13 April 2023. P. 1320–1328. DOI:
https://doi.org/10.1109/ICOEI56765.2023.10125737
3. Vision-based anti-UAV detection and tracking / J. Zhao, J. Zhang, D. Li, D. Wang. IEEE
Transactions on Intelligent Transportation Systems. 2022. Vol. 23, N 12. P. 25323–25334. DOI:
https://doi.org/10.1109/TITS.2022.3177627
4. Statistical modeling of complex backgrounds for foreground object detection / L. Li, W. Huang,
I.Y.H. Gu, Q. Tian. IEEE Transactions on Image Processing. 2004. Vol. 13, N 11. P. 1459–1472.
DOI: https://doi.org/10.1109/TIP.2004.836169
5. Deep learning-based scene understanding for autonomous robots: a survey / J. Ni, Y. Chen,
G. Tang, J. Shi, W.C. Cao, P. Shi. Intelligence & Robotics. 2023. Vol. 3, N 3. P. 374–401. DOI:
https://doi.org/10.20517/ir.2023.22
6. Feature extraction for hyperspectral imagery (the evolution from shallow to deep: overview and
toolbox) / B. Rasti, D. Hong, R. Hang, P. Ghamisi, X. Kang, J. Chanussot, J.A. Benediktsson.
IEEE Geoscience and Remote Sensing Magazine. 2020. Vol. 8, N 4. P. 60–88. DOI: https://doi.
org/10.1109/MGRS.2020.2979764
7. Graph convolutional networks for hyperspectral image classification / D. Hong, L. Gao, J. Yao,
B. Zhang, A. Plaza, J. Chanussot. IEEE Geoscience and Remote Sensing. 2021. Vol. 59, N 7.
P. 5966–5978. DOI: https://doi.org/10.1109/TGRS.2020.3015157
8. Vision-based anti-UAV detection based on YOLOv7-GS in complex backgrounds / C. Bo,
Y. Wei, X. Wang, Z. Shi, Y. Xiao. Drones. 2024. Vol. 8, N 7. ID: 331. 21 p. DOI: https://doi.org/
10.3390/drones8070331
9. Fast automatic vehicle detection in UAV images using convolutional neural networks / X. Luo,
X. Tian, H. Zhang, W. Hou, G. Leng, W. Xu, H. Jia, X. He, M. Wang, J. Zhang. Remote Sensing.
2020. Vol. 12, N 12. ID: 1994. 15 p. DOI: https://doi.org/10.3390/rs12121994
10. You only look once: unified, real-time object detection / J. Redmon, S. Divvala, R. Girshick,
A. Farhadi. The proceedings of the 29th IEEE Computer Society Conference on Computer Vision
and Pattern Recognition (CVPR). USA: Las Vegas, 27–30 June 2016. P. 779–788. DOI: https://
doi.org/10.1109/CVPR.2016.91
https://doi.org/10.3390/rs16010149
18 ISSN 2786-6491
11. An improved SSD-Like deep network-based object detection method for indoor scenes / J. Ni,
K. Shen, Y. Chen, S.X. Yang. IEEE Transactions on Instrumentation and Measurement. 2023.
Vol. 72. ID: 5006915. 15 p. DOI: https://doi.org/10.1109/TIM.2023.3244819
12. Rich feature hierarchies for accurate object detection and semantic segmentation / R. Girshick,
J. Donahue, T. Darrell, J. Malik. The proceedings of the IEEE Computer Society Conference
on Computer Vision and Pattern Recognition (CVPR). USA: Columbus, 23–28 June 2014.
P. 580–587. DOI: https://doi.org/10.1109/CVPR.2014.81
13. Faster R-CNN: towards real-time object detection with region proposal networks / S. Ren, K. He,
R. Girshick, J. Sun. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017.
Vol. 39, N 6. P. 1137–1149. DOI: https://doi.org/10.1109/TPAMI.2016.2577031
14. An improved deep network-based scene classification method for self-driving cars / J. Ni,
K. Shen, Y. Chen, W. Cao, S.X. Yang. IEEE Transactions on Instrumentation and Measurement.
2022. Vol. 71. ID: 5001614. 14 p. DOI: https://doi.org/10.1109/TIM.2022.3146923
15. Designing neural networks through neuroevolution / K.O. Stanley, J. Clune, J. Lehman,
R. Miikkulainen. Nature Machine Intelligence. 2019. Vol. 1. P. 24–35. DOI: https://doi.org/10.
1038/s42256-018-0006-z
16. Omelianenko I. Hands-on neuroevolution with Python. Birmingham : Packt, 2019. 370 p.
17. Платформа DRMS для розробки прикладного та спеціального ПЗ. IT-Solutions. URL:
https://it-solutions.ua/it-infrastruktura/fizichna/platforma-drms
18. Lowe D.G. Distinctive image features from scale-invariant keypoints. International Journal of
Computer Vision. 2004. Vol. 60, N 2. P. 91–110. DOI: https://doi.org/10.1023/B:VISI.
0000029664.99615.94
19. Bay H., Tuytelaars T., Van Gool L. SURF: speeded up robust features. The Proceedings of the 9th
European Conference on Computer Vision (ECCV 2006). Austria: Graz, 7–13 May 2006. Lecture
Notes in Computer Science (LNIP). Berlin : Springer, 2006. Vol. 3951. Part 1. P. 404–417.
DOI: https://doi.org/10.1007/11744023_32
20. Dalal N., Triggs B. Histograms of oriented gradients for human detection. The Proceedings of the
IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05).
USA: San Diego, 20–25 June 2005. Piscataway : IEEE, 2005. Vol. 1. P. 886–893. DOI:
https://doi.org/10.1109/CVPR.2005.177
21. An image is worth 16 x 16 words: transformers for image recognition at scale / A. Dosovitskiy,
L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani, M. Minderer,
G. Heigold, S. Gelly, J. Uszkoreit, N. Houlsby. arXiv. 2021. 22 p. DOI: https://doi.
org/10.48550/arXiv.2010.11929
22. End-to-end object detection with transformers / N. Carion, F. Massa, G. Synnaeve, N. Usunier,
A. Kirillov, S. Zagoruyko. The Proceedings of the 16th European Conference on Computer Vision
(ECCV). UK: Glasgow, 23–28 August 2020. Lecture Notes in Computer Science (LNIP). Cham :
Springer, 2020. Vol. 12346. Part 1. P. 213–229. DOI: https://doi.org/10.1007/978-3-030-58452-8_13
23. Shi J., Tomasi C. Good features to track. The Proceedings of the IEEE Conference on Computer
Vision and Pattern Recognition (CVPR). USA: Seattle, 21–23 June 1994. P. 593–600. DOI:
https://doi.org/10.1109/CVPR.1994.323794
24. Simple online and realtime tracking / A. Bewley, Z. Ge, L. Ott, F. Ramos, B. Upcroft. The Proceedings
of the IEEE International Conference on Image Processing (ICIP). USA: Phoenix, 25–28 September
2016. Piscataway : IEEE, 2016. P. 3464–3468. DOI: https://doi.org/10.1109/ICIP.2016.7533003
25. Wojke N., Bewley A., Paulus D. Simple online and realtime tracking with a deep association
metric. The Proceedings of the IEEE International Conference on Image Processing (ICIP).
China: Beijing, 17–20 September 2017. Piscataway : IEEE, 2017. P. 3645–3649. DOI:
https://doi.org/10.1109/ICIP.2017.8296962
26. ROS: an open-source robot operating system / M. Quigley, K. Conley, B. Gerkey, J. Faust,
T. Foote, J. Leibs, R. Wheeler., A.Y. Ng. IEEE International Conference on Robotics and
Automation (ICRA). A workshop on open source software. Japan: Kobe, 12–17 May 2009. 6 p.
http://www.robotics.stanford.edu/~ang/papers/icraoss09-ROS.pdf
27. Mission Planner Overview. ArduPilot. URL: https://ardupilot.org/planner/docs/mission-planner-
overview.html
28. SITL simulator (software in the loop). ArduPilot. URL: https://ardupilot.org/dev/docs/sitl-
simulator-software-in-the-loop.html
29. Airsim: high-fidelity visual and physical simulation for autonomous vehicles / S. Shah, D. Dey,
C. Lovett, A. Kapoor. Field and Service Robotics / ed. by M. Hutter, R. Siegwart. Springer
Proceedings in Advanced Robotics (SPAR). Cham : Springer, 2018. Vol. 5. P. 621–635. https://
doi.org/10.1007/978-3-319-67361-5_40
Отримано 04.08.2025
Доопрацьовано 26.09.2025
https://doi.org/10.1007/11744023_32
https://doi.org/10.1109/CVPR.2005.177
https://doi.org/10.1007/978-3-030-58452-8_13
http://www.robotics.stanford.edu/~ang/papers/icraoss09-ROS.pdf
|
| id | nasplib_isofts_kiev_ua-123456789-211448 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | 0572-2691 |
| language | Ukrainian |
| last_indexed | 2026-03-14T12:56:55Z |
| publishDate | 2025 |
| publisher | Інститут кібернетики ім. В.М. Глушкова НАН України |
| record_format | dspace |
| spelling | Сініцин, І.П. Дорошенко, А.Ю. Кирилов, І.І. Омельяненко, Я.В. Яценко, О.А. 2026-01-02T15:26:55Z 2025 Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами / І.П. Сініцин, А.Ю. Дорошенко, І.І. Кирилов, Я.В. Омельяненко, О.А. Яценко // Проблемы управления и информатики. — 2025. — № 5. — С. 5-18. — Бібліогр.: 29 назв. — укр. 0572-2691 https://nasplib.isofts.kiev.ua/handle/123456789/211448 10.34229/1028-0979-2025-5-1 Розглянуто підхід до розробки адаптивних програмних рішень щодо автоматизованого виявлення, класифікації та захоплення цілей ударними безпілотними літальними апаратами (БПЛА). The paper considers an approach to the development of adaptive software solutions for automated detection, classification, and target locking of strike unmanned aerial vehicles (UAVs). uk Інститут кібернетики ім. В.М. Глушкова НАН України Проблеми керування та інформатики Адаптивне керування та методи ідентифікації Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами Adaptive software solutions for automated detection, classification, tracking and engagement of targets by strike unmanned aerial vehicles Article published earlier |
| spellingShingle | Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами Сініцин, І.П. Дорошенко, А.Ю. Кирилов, І.І. Омельяненко, Я.В. Яценко, О.А. Адаптивне керування та методи ідентифікації |
| title | Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами |
| title_alt | Adaptive software solutions for automated detection, classification, tracking and engagement of targets by strike unmanned aerial vehicles |
| title_full | Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами |
| title_fullStr | Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами |
| title_full_unstemmed | Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами |
| title_short | Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами |
| title_sort | адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами |
| topic | Адаптивне керування та методи ідентифікації |
| topic_facet | Адаптивне керування та методи ідентифікації |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/211448 |
| work_keys_str_mv | AT síníciníp adaptivníprogramníríšennâŝodoavtomatizovanogoviâvlennâklasifíkacíízahoplennâtauražennâcíleiudarnimibezpílotnimilítalʹnimiaparatami AT dorošenkoaû adaptivníprogramníríšennâŝodoavtomatizovanogoviâvlennâklasifíkacíízahoplennâtauražennâcíleiudarnimibezpílotnimilítalʹnimiaparatami AT kirilovíí adaptivníprogramníríšennâŝodoavtomatizovanogoviâvlennâklasifíkacíízahoplennâtauražennâcíleiudarnimibezpílotnimilítalʹnimiaparatami AT omelʹânenkoâv adaptivníprogramníríšennâŝodoavtomatizovanogoviâvlennâklasifíkacíízahoplennâtauražennâcíleiudarnimibezpílotnimilítalʹnimiaparatami AT âcenkooa adaptivníprogramníríšennâŝodoavtomatizovanogoviâvlennâklasifíkacíízahoplennâtauražennâcíleiudarnimibezpílotnimilítalʹnimiaparatami AT síníciníp adaptivesoftwaresolutionsforautomateddetectionclassificationtrackingandengagementoftargetsbystrikeunmannedaerialvehicles AT dorošenkoaû adaptivesoftwaresolutionsforautomateddetectionclassificationtrackingandengagementoftargetsbystrikeunmannedaerialvehicles AT kirilovíí adaptivesoftwaresolutionsforautomateddetectionclassificationtrackingandengagementoftargetsbystrikeunmannedaerialvehicles AT omelʹânenkoâv adaptivesoftwaresolutionsforautomateddetectionclassificationtrackingandengagementoftargetsbystrikeunmannedaerialvehicles AT âcenkooa adaptivesoftwaresolutionsforautomateddetectionclassificationtrackingandengagementoftargetsbystrikeunmannedaerialvehicles |