Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами

Розглянуто підхід до розробки адаптивних програмних рішень щодо автоматизованого виявлення, класифікації та захоплення цілей ударними безпілотними літальними апаратами (БПЛА). The paper considers an approach to the development of adaptive software solutions for automated detection, classification, a...

Повний опис

Збережено в:
Бібліографічні деталі
Опубліковано в: :Проблеми керування та інформатики
Дата:2025
Автори: Сініцин, І.П., Дорошенко, А.Ю., Кирилов, І.І., Омельяненко, Я.В., Яценко, О.А.
Формат: Стаття
Мова:Українська
Опубліковано: Інститут кібернетики ім. В.М. Глушкова НАН України 2025
Теми:
Онлайн доступ:https://nasplib.isofts.kiev.ua/handle/123456789/211448
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами / І.П. Сініцин, А.Ю. Дорошенко, І.І. Кирилов, Я.В. Омельяненко, О.А. Яценко // Проблемы управления и информатики. — 2025. — № 5. — С. 5-18. — Бібліогр.: 29 назв. — укр.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1859642212257628160
author Сініцин, І.П.
Дорошенко, А.Ю.
Кирилов, І.І.
Омельяненко, Я.В.
Яценко, О.А.
author_facet Сініцин, І.П.
Дорошенко, А.Ю.
Кирилов, І.І.
Омельяненко, Я.В.
Яценко, О.А.
citation_txt Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами / І.П. Сініцин, А.Ю. Дорошенко, І.І. Кирилов, Я.В. Омельяненко, О.А. Яценко // Проблемы управления и информатики. — 2025. — № 5. — С. 5-18. — Бібліогр.: 29 назв. — укр.
collection DSpace DC
container_title Проблеми керування та інформатики
description Розглянуто підхід до розробки адаптивних програмних рішень щодо автоматизованого виявлення, класифікації та захоплення цілей ударними безпілотними літальними апаратами (БПЛА). The paper considers an approach to the development of adaptive software solutions for automated detection, classification, and target locking of strike unmanned aerial vehicles (UAVs).
first_indexed 2026-03-14T12:56:55Z
format Article
fulltext © І.П. СІНІЦИН, А.Ю. ДОРОШЕНКО, І.І. КИРИЛОВ, Я.В. ОМЕЛЬЯНЕНКО, О.А. ЯЦЕНКО, 2025 Міжнародний науково-технічний журнал Проблеми керування та інформатики, 2025, № 5 5 АДАПТИВНЕ КЕРУВАННЯ ТА МЕТОДИ ІДЕНТИФІКАЦІЇ УДК 004.424, 004.932, 004.93/.94, 629.735, 623.746.9 І.П. Сініцин, А.Ю. Дорошенко, І.І. Кирилов, Я.В. Омельяненко, О.А. Яценко АДАПТИВНІ ПРОГРАМНІ РІШЕННЯ ЩОДО АВТОМАТИЗОВАНОГО ВИЯВЛЕННЯ, КЛАСИФІКАЦІЇ, ЗАХОПЛЕННЯ ТА УРАЖЕННЯ ЦІЛЕЙ УДАРНИМИ БЕЗПІЛОТНИМИ ЛІТАЛЬНИМИ АПАРАТАМИ Сініцин Ігор Петрович Інститут програмних систем НАН України, м. Київ, https://orcid.org/0000-0002-4120-0784 ips@nas.gov.ua Дорошенко Анатолій Юхимович Інститут програмних систем НАН України, м. Київ, Національний технічний уні- верситет України «Київський політехнічний інститут імені Ігоря Сікорського», https://orcid.org/0000-0002-8435-1451 doroshenkoanatoliy2@gmail.com Кирилов Іван Ігорович Інститут програмних систем НАН України, м. Київ, https://orcid.org/0009-0006-9756-5391 ivan.kyrylov.science@gmail.com Омельяненко Ярослав Вікторович Інститут програмних систем НАН України, м. Київ, https://orcid.org/0000-0002-2190-5664 yaric@newground.com.ua Яценко Олена Анатоліївна Інститут програмних систем НАН України, м. Київ, https://orcid.org/0000-0002-4700-6704 oayat@ukr.net  Дослідження виконано за фінансової підтримки НАН України в межах державного проєкту 0124U000686 «Розроблення методів і засобів для програмно-технологічної платформи автоматизації управління ресурсами та інформаційно-аналітичної діяльності у сфері безпеки та оборони України», що реалізується відповідно до Постанови Бюро Відділення інформатики НАН України від 13.07.2023 (протокол № 1). mailto:ivan.kyrylov.science@gmail.com 6 ISSN 2786-6491 Розглянуто підхід до розробки адаптивних програмних рішень щодо авто- матизованого виявлення, класифікації та захоплення цілей ударними без- пілотними літальними апаратами (БПЛА). Актуальність дослідження зумовлена зростанням потреби в автономних бойових системах, здатних до оперативного аналізу та точного ураження цілей за умов складного та динамічного середовища, зокрема дії засобів радіоелектронної боротьби, перешкод, зашумлення або відсутності сигналів супутникової навігації. За- безпечення надійної роботи БПЛА за таких умов потребує інтелектуальних алгоритмів обробки даних, за допомогою яких можна адаптувати поведін- ку системи до змін ситуації у реальному часі та мінімізувати ризик збоїв. Запропоноване рішення ґрунтується на сучасних методах комп’ютерного зору, глибокого навчання та алгоритмах машинного навчання, реалізова- них у модульній архітектурі на базі ROS2 та середовища Kubernetes, що забезпечує гнучке керування сервісами, масштабованість і високу відмово- стійкість. На відміну від традиційних підходів, за допомогою представле- ної архітектури можна легко інтегрувати нові модулі й забезпечити швид- ку адаптацію у разі виявлення нових класів цілей чи зміни вимог щодо бойових завдань. Платформа, що розробляється, включає шість ключових підсистем: збір і підготовка даних; створення моделей комп’ютерного зору та класифікації; реалізація бортового програмного забезпечення (ПЗ) БПЛА; симуляція; валідація; а також модуль для тестування на реальному обладнанні. Це дає змогу здійснювати повноцінний цикл дослідження та верифікації — від формування датасетів і навчання моделей до інтеграції в реальні умови експлуатації. Для тестування поведінки системи за умов, наближених до реальних, інтегровано симуляційне середовище Microsoft AirSim з можливістю варіативного налаштування сцен і параметрів, за до- помогою якого можна перевірити роботу алгоритмів у широкому спектрі сценаріїв. Подальші дослідження будуть спрямовані на розширення біблі- отеки типів цілей та удосконалення методів визначення їхньої пріоритет- ності; впровадження адаптивного навчання на борту; а також інтеграцію з іншими системами ситуаційної обізнаності для підвищення ефективності та автономності прийняття рішень. Ключовi слова: безпілотний літальний апарат, комп’ютерний зір, штуч- ний інтелект, глибоке навчання, класифікація цілей, фіксація наведення на цілі, симуляція. Вступ Актуальність даного дослідження зумовлена зростанням вимог до точності, швидкості та автономності сучасних бойових систем. За допомогою штучного ін- телекту можна автоматизувати процеси виявлення та класифікації цілей, що знач- но підвищує ефективність і зменшує залежність від людського фактора за умов, коли критично важливими є швидке прийняття рішень і точність. Крім того, впровадження таких технологій у системи БПЛА сприяє посиленню обороноздат- ності, знижує ризик помилок та підвищує ефективність ураження цілей на полі бою. Ударні БПЛА призначені для нанесення ударів по визначених цілях, осна- щені озброєнням, за допомогою якого можна вражати наземні або повітряні об’єкти. Основна мета таких апаратів — виконання бойових завдань, зокрема знищення ворожих позицій, техніки, об’єктів інфраструктури тощо. Сучасні підходи до застосування нейронних мереж, комп’ютерного зору та алгоритмів машинного навчання роблять дане дослідження особливо актуальним щодо зміц- нення технологічного потенціалу та розвитку інновацій у сфері оборонних тех- нологій. Завдяки швидкому розвитку технологій з виявлення цілей стало зручно зби- рати дані за допомогою аерофотозйомки[1–3]. Однією з основних проблем ком- п’ютерного зору є те, що традиційні методи виявлення об’єктів ґрунтуються на статистичних підходах [4], однак зі збільшенням обсягів даних продуктивність таких методів суттєво знижується. Виникають труднощі, пов’язані з «вибухом Міжнародний науково-технічний журнал Проблеми керування та інформатики, 2025, № 5 7 розмірності» ознак, що потребує значно більшого обсягу пам’яті та часу обробки. З появою технології глибокого навчання [5–7] високорівневі характеристики зо- бражень можна вилучати за допомогою кількох згорток та об’єднаних шарів і у такий спосіб виявляти об’єкти. На основі глибокого навчання у разі виявлення об’єктів для БПЛА можна отримувати та аналізувати інформацію про наземну сцену в режимі реального часу під час польоту, що покращує сприйняття та інтелект БПЛА. Однак існує багато проблем щодо виявлення ударних БПЛА порівняно з на- земними об’єктами, як-от проблема низької якості зображення та складного фону [8]. Класичні глибокі нейронні мережі для виявлення об’єктів поділяються на два типи: одноступеневі та двоступеневі. У разі одноступеневих, як-от YOLO (You Only Look Once) [9, 10] та SSD (Single Shot Multibox Detector) [11], виявлення об’єктів ви- конується за один крок: одразу генеруються координати прямокутника для кожного об’єкта та здійснюється його класифікація. За допомогою таких мереж аналізується все зображення одночасно, що дає змогу досягти високої швидкості обробки. Щодо двоступеневих мереж –– R-CNN (Region-based Convolutional Neural Network) [12] і Faster R-CNN [13, 14] –– виявлення виконується у два етапи. Спочатку на зображенні виділяються регіони, які можуть містити об’єкти (перший етап), а потім, на основі цього, класифікуються та уточнюються межі об’єктів (другий етап). Це дає змогу для більш детального опрацювання кожного можливого об’єкта, внаслідок чого часто збільшується точність. Одноступеневі мережі мають значні переваги щодо застосу- вання БПЛА завдяки високій швидкості обробки даних у реальному часі. Для автоматизації розробки нейромереж застосовуються відомі реалізації ме- тоду нейроеволюції з відкритим кодом. Даним методом користуються у разі авто- матизації створення нейромереж з метою розпізнавання певних класів об’єктів. На відміну від ручних методів, за його допомогою в процесі проєктування можна од- ночасно змінювати і вагові коефіцієнти зв’язків між вузлами, і топологію вузлів. Однією з найвідоміших реалізацій нейроеволюційних алгоритмів є нейроеволюція нарощення топології (NeuroEvolution of Augmenting Topologies — NEAT) [15, 16]. Метою даної статті є створення адаптивних програмних рішень для автома- тизованого виявлення та класифікації цілей з подальшим визначенням пріоритет- ності та фіксацією наведення на заключному етапі польоту ударного БПЛА. До- слідження передбачає розробку архітектури прототипу програмної системи вияв- лення, класифікації, захоплення та ураження цілей на основі штучного інтелекту. Система контролю ударного БПЛА та керування ним має інтегруватися з системами ситуаційної обізнаності, такими як розроблена в Інституті програм- них систем НАНУ платформа динамічного керування ресурсами DRMS (Dynamic Resource Management System) [17], для відображення на мапі в режимі реального часу з можливістю керування ураженням цілей. Аналіз альтернативних підходів розв’язання проблеми Проблема виявлення та класифікації об’єктів за допомогою даних з БПЛА зумовлена низкою чинників: низька якість відеопотоку, складний та динамічний фон, зміни масштабу та освітлення, а також необхідність обробки інформації в режимі реального часу [1–3, 8]. Для її розв’язання застосовуються традиційні статистичні методи сегментації та виділення об’єктів [4], які є базовими, проте недостатньо стійкі за умов шумів і швидкої зміни сцени. Альтернативні підходи щодо подолання вищезазначеної проблеми умовно можна поділити на кілька груп: • класичні методи комп’ютерного зору. Такі алгоритми фільтрації та виділення ознак, як SIFT (Scale-Invariant Feature Transform) [18], SURF (Speeded-Up Robust Features) [19], HOG (Histogram of Oriented Gradients) [20], забезпечують початкове 8 ISSN 2786-6491 розв’язання задачі, однак вони малоефективні у разі змінних умов зйомки. За до- помогою методів статистичного моделювання фону [4] можна підвищити якість виявлення рухомих об’єктів, але вони залишаються вразливими до складного фону й змін освітлення, що призводить до хибних спрацювань або втрати частини об’єктів; • глибокі згорткові нейронні мережі. За допомогою одноступеневих архітек- тур (YOLO [9, 10], SSD [11]) забезпечується висока швидкодія, що критично для БПЛА, тоді як із застосуванням двоступеневих підходів –– R-CNN (Region-based Convolutional Neural Network) [12], Faster R-CNN [13, 14] –– демонструється вища точність, проте знижується швидкість обробки. Останні модифікації, наприклад YOLOv7 та YOLOv8, показують здатність працювати з низькоякісними зобра- женнями та за умов складного фону [8]; • моделі на основі трансформерів. Із застосуванням Vision Transformer (ViT) [21] та DETR (Detection Transformer) [22] відкриваються нові можливості для обробки повноцінного зображення як послідовності ознак, а отже, краще враховується глобальний контекст сцени, що важливо для виявлення малих цілей на складному фоні. Однак ці підходи потребують значних обчислювальних ресурсів, що обме- жує їх застосування на борту БПЛА; • мультимодальні та гіперспектральні методи. Об’єднання даних від різних сенсорів (видимий спектр, інфрачервоний діапазон, радіолокаційні системи) та за- стосування методів багатоспектральної / гіперспектральної обробки [6, 7] дає змо- гу значно підвищити стійкість системи до завад та маскування об’єктів. Цей на- прям є перспективним, однак такі методи потребують складнішого бортового об- ладнання, внаслідок чого збільшується маса й енергоспоживання БПЛА; • методи відстеження цілей. Для підвищення надійності часто застосовують- ся алгоритми трекінгу KLT (Kanade–Lucas–Tomasi Tracker) [23], SORT (Simple Online and Realtime Tracking) [24], DeepSORT (Deep Simple Online and Realtime Tracking) [25]. Ці алгоритми забезпечують стійке супроводження цілі навіть за умов часткової втрати даних, шуму зображення, часткової оклюзії або інших пе- решкод, що виникають у реальному середовищі спостереження [3]. Це дає змогу компенсувати обмеження одноразового детектування; • еволюційні та адаптивні методи. За допомогою підходів на основі нейро- еволюції, зокрема NEAT [15, 16], можна автоматично адаптувати структуру ней- ронних мереж до специфіки даних. Завдяки таким методам зменшується залеж- ність від ручної архітектурної оптимізації та забезпечується гнучкість системи у разі зміни умов бойового застосування. Отже, на сучасному етапі для розв’язання проблеми виявлення та класифіка- ції об’єктів за допомогою даних з БПЛА застосовується широкий спектр підходів: від класичних алгоритмів комп’ютерного зору та статистичного моделювання до сучасних глибоких нейронних мереж, трансформерів та еволюційних методів. Кожен з них має свої переваги й обмеження, що обумовлює потребу в розроблен- ні гібридних та адаптивних рішень, які можуть поєднувати швидкодію, точність і стійкість до завад за складних умов бойових дій. Загальна інформація про платформу Дослідження спрямоване на розробку методів та програмних засобів для виявлення, класифікації та ураження цілей з використанням технологій штуч- ного інтелекту (Artificial Intelligence — AI) та комп’ютерного зору (Computer Vision — CV). Мета роботи полягає у створенні платформи, яка забезпечить високотехноло- гічні рішення для візуального термінального наведення на цілі та розпізнавання їх у разі радіоелектронної боротьби (РЕБ). Міжнародний науково-технічний журнал Проблеми керування та інформатики, 2025, № 5 9 Відповідно до поставленої мети основні завдання дослідження такі: 1) створення прототипу платформи (Minimum Viable Product — MVP) як функціонального мінімального життєздатного продукту для виявлення цілей і на- ведення на них; 2) валідація —– тестування технології в симуляційних середовищах та на ре- альних БПЛА; 3) накопичення досвіду –– розвиток внутрішньої експертизи в сфері AI / CV для оборонних застосувань; 4) сприяння виробникам БПЛА –– надання доступу українським виробникам до передових технологій задля підвищення конкурентоспроможності. Головна задача полягає у створенні та підготовці програмного оточення, влас- не — симулятора, що імітує роботу БПЛА для тестування системи автоматизованого виявлення та класифікації цілей, визначення пріоритетної та фіксації наведення на неї. Взаємодія симулятора із системою керування БПЛА відбувається завдяки обміну сигналами у такий спосіб: він передає дані про стан апарата, отримує команди та від- повідно реагує на них — коригує параметри та імітує роботу частин БПЛА, як-от дви- гуни, датчики висоти та швидкості, відеокамери тощо. Це дає змогу тестувати розроб- лену систему за допомогою моделювання різних сценаріїв з виявленням та уражен- ням цілей для перевірки її роботи в умовах, максимально наближених до реальних. Реалізація системи передбачає виконання таких етапів: 1) дослідження та розробка –– вивчення наявних рішень на базі AI / CV, про- ведення аналізу щодо потреб ринку; 2) прототипування –– створення MVP, що містить ключові компоненти плат- форми; 3) тестування та валідація –– проведення тестів у середовищі Microsoft AirSim та реальних умовах із застосуванням БПЛА; 4) навчання та документація –– розробка методології навчання для користу- вачів, створення документації з описом функцій системи; 5) моніторинг та вдосконалення –– збір відгуків користувачів для покращен- ня функціональних можливостей платформи. Архітектура технічного рішення Загальна архітектура серверного середовища (рис. 1), що розробляється для системи виявлення, класифікації, захоплення та ураження цілей на основі штуч- ного інтелекту, ґрунтується на платформі Kubernetes (для керування розгортанням та масштабуванням мікросервісів), зокрема її варіанті Minikube. Необхідні ком- поненти програмного оточення симулятора наведено на рис. 2. На платформі розгорнуто такі загальні сервіси: • Minio S3 –– для зберігання файлів з наборами даних, моделей машинного навчання (Machine Learning — ML) тощо; • GitLab –– для зберігання конфігурацій, налаштувань, вихідного коду та ін.; • PostgreSQL –– для збереження реляційних даних; • QuestDB –– для збереження неструктурованих даних та метрик у вигляді часових рядів тощо; • Prometheus –– для моніторингу роботи всіх складових компонентів плат- форми; • Grafana –– для графічного відображення станів системи в цілому та її окре- мих компонентів. Для керування компонентами робототехнічної системи та їхньої інтеграції в загальну платформу застосовується Robot Operating System (ROS) [26] — про- грамна платформа з відкритим вихідним кодом, що включає набір бібліотек та 10 ISSN 2786-6491 інструментів для розробки робототехнічного програмного забезпечення. За допо- могою ROS забезпечується керування життєвим циклом компонентів робототех- нічної системи та їх оркестрація, оскільки підтримується обмін повідомленнями за моделлю публікації / підписки. Застосування платформи сприяє реалізації мік- росервісної архітектури, в якій кожен мікросервіс може бути реалізований за до- помогою будь-якої з основних мов програмування, що підтримуються ROS. Рис. 1 Кожне автоматизоване робоче місце (АРМ) має відповідний мікросервіс або набір мікросервісів, розгорнутих на платформі, життєвий цикл яких забезпечує Kubernetes. Завдяки програмним компонентам kube-apiserver (аутентифікація та авторизація) та kube-controller-manager (контроль стану доступу до ресурсів), а також можливостям ведення журналів подій і аудиту, за допомогою Kubernetes гарантується безпека системи. Програмне оточення симулятора передбачає наявність таких ключових ком- понентів, як система керування БПЛА; перетворювач сигналів у зрозумілий для БПЛА формат (MAVLink); графічна симуляція польоту БПЛА. У розширеній архітектурі симулятор має замінити апаратні частини керуван- ня БПЛА та сенсори. ROS Вхід із камери БПЛА Б л о к в ід ео п о то к у Модель відстеження об’єктів Модель виявлення об’єктів Модуль моделей машинного навчання Блок деталей відстеження x, y, w, h Блок керування відстеженням Блок цілей Б л о к т ел ем ет р ії SQLite. Сховище метаданих цільових об’єктів Модуль пріоритет- ності цілей Модуль підключення MAVLink Блок керування БПЛА Модуль захоплення та відстеження цілей Тангаж, рискання, крен публікація підписка Міжнародний науково-технічний журнал Проблеми керування та інформатики, 2025, № 5 11 Рис. 2 Як одне з рішень реалізації поставленої задачі запропоновано такі програмні продукти: • Mission Planner [27] –– для виконання функції базової станції керування БПЛА завдяки великій кількості команд; • ArduCopter SITL [28] –– для перетворення команд з формату Mission Plan- ner в MAVLink; • Microsoft AirSim [29], в якому детально реалізовано політ БПЛА з ураху- ванням фізичних явищ (таких, як зіткнення) та керування БПЛА за допомогою команд. Схему функціональної архітектури платформи представлено на рис. 3. Рис. 3 Потенційні виконавці Наукові установи ІТ-компанії Оборонні підприємства Користувачі (оператори БПЛА, аналітики) Платформа Джерела даних (супутникові знімки, відео з БПЛА, інші сенсори) Підсистема збору та підготовки даних (маркування, створення датасетів, аугментація) Графічний інтерфейс користувача Бортове ПЗ на ROS2 (базова система керування БПЛА) Пакети AI / CV (модулі для обробки відеопотоку, нейромережі для розпізнавання цілей) Інтеграція з симулятором (AirSim) Методології машинного навчання Симулятор Система керування Перетворювач сигналів Графічний симулятор Автоматизо- вана система розпізнавання та фіксації цілей 12 ISSN 2786-6491 Архітектура складається з таких рівнів: • верхній рівень — оператори БПЛА та аналітики взаємодіють через графіч- ний інтерфейс користувача (GUI), здійснюють керування БПЛА, моніторинг місії та аналіз результатів; • середній рівень: — бортове ПЗ на ROS2 забезпечує базову систему керування БПЛА; — пакети AI / CV виконують обробку відеопотоку та розпізнавання цілей; — інтеграція з симулятором (AirSim) дає змогу тестувати та валідувати алго- ритми керування й розпізнавання в безпечному середовищі; — методології машинного навчання забезпечують підготовку даних, навчан- ня моделей і оптимізацію алгоритмів; • нижній рівень: — джерела даних (супутникові знімки, відео з БПЛА, інші сенсори) забезпе- чують отримання первинної інформації для аналізу; — підсистема збору та підготовки даних виконує маркування, створення на- борів даних та керування ними, а також аугментацію для підвищення якості моделей. Підсистеми платформи наведено на рис. 4. Концепція автоматизованих експериментів та опис платформи У процесі експериментального дослідження виявлено низку проблем, що істотно впливають на стабільність і ефективність оцінки результатів: — моделі YOLO демонструють варіативність результатів залежно від вхід- них даних, конфігурацій параметрів, характеристик сцени, а також апаратного за- безпечення, що використовується (зазначимо, що питання дослідження продук- тивності нейромереж YOLO для вбудованих систем і дронів на широкому спектрі апаратних платформ стане предметом окремої публікації); — процес ручного налаштування місій в ArduPilot або керування об’єктами в середовищі AirSim є трудомістким і потребує значного часу з боку розробників; — значна кількість параметрів конфігурації (зокрема моделі, сцени, авто- пілот) суттєво впливає на вихідні результати, що ускладнює відтворюваність екс- периментів; — немає інструментів для системного аналізу та формальної валідації ре- зультатів експериментальних запусків; — спостерігається нестача уніфікованих метрик для оцінки якості роботи системи. У зв’язку з цим сформульовано мету даного етапу роботи: — забезпечити прискорення циклу проведення експериментів із використан- ням моделей та автопілотних систем; — стабілізувати та підвищити відтворюваність експериментальних резуль- татів; — уніфікувати процедури проведення експериментів для забезпечення фор- мальної валідації та аналізу; — закласти методологічні та технічні основи для побудови АРМ, орієнтованого на дослідження, тестування й інтеграцію інтелектуальних компонентів системи. Платформа, що розробляється, включає такі компоненти: 1) бортове програмне забезпечення БПЛА на ROS2: модульна система, що забезпечує інтеграцію функцій керування в БПЛА на базі ROS2; 2) пакети AI / CV: модулі для обробки відеопотоку в реальному часі для ви- явлення, класифікації та наведення на цілі; 3) моделі нейромереж: навчені моделі, призначені для розпізнавання специ- фічних типів цілей; Міжнародний науково-технічний журнал Проблеми керування та інформатики, 2025, № 5 13 4) інтеграція з симулятором: тестування алгоритмів у середовищі Microsoft AirSim; 5) методологія та інструменти навчання: надання засобів для підготовки та навчання моделей відповідно до специфічних потреб клієнтів; 6) інструменти маркування даних: засоби для підготовки та аугментації даних. Рис. 4 Система складається з програмних компонентів CVAT (Computer Vision An- notation Tool), YOLO, ArduPilot, AirSim та програм для конфігурації та передачі даних між компонентами: — CVAT — виконує функції розмітки даних та їх організацію у відповідний формат (вихідними даними є структурований розмічений набір даних); — конфігуратор YOLO — для структуризації набору даних згідно з форма- том YOLO та підготовки параметрів для моделі за такими вихідними даними, як файл конфігурації YOLO, набір даних у форматі YOLO; — тренування YOLO — для підготовки моделі та збору результатів навчання відповідно до вихідних даних (готова модель; дані тренування, тобто зображення з анотаціями; проміжні результати; метрики моделі); RabbitMQ PostgreSQL Опис метрик ○ Моделі та їх підготовка Керування операціями / місіями Temporal Керування симулято- рами Результати та метрики QuestDB Обробка даних (маркування / аугментація Генератор даних Керування даними Minio S3 Керування моделями Підготовка моделей Керування наборами даних ● Метрики, симуляції, моделі ● Інформація щодо наборів даних Дані для тренуван- ня моделей ○ Параметри генерації ○ Маркування / аугментація ○ ● Модель для бортового ПЗ Дані щодо операції / місії ○ Параметри симуляції ○ Підсистема збору та обробки даних Первинна обробка даних Балансу- вальник Валідатор даних Підсистема підготовки моделей ○ Моделі / конфігурація моделі ○ Створення, редагування, отримання, видалення даних Підсистема симуляції та валідації 14 ISSN 2786-6491 — налаштування місії — передбачає опис завдання для автопілота з вихід- ними даними про те, що має робити БПЛА після запуску; — ArduPilot — для керування об’єктом (вихідними даними є команди для БПЛА); — налаштування сцени — для підготовки сцен та керування ними (як вихідні дані обрано сцену для AirSim); — AirSim — для імітації об’єкта та навколишнього середовища; — метрики та дані — для збору даних по моделях (конфігурації та результати тренувань моделей), місії (конфігурації та результати місій, метрики, дані роботи об’єкта) та сцені (конфігурації сцени). Схему системи представлено на рис. 5. Рис. 5 Прототип платформи має такі спроможності: 1) здатність до високоточного наведення на конкретний, заздалегідь визначе- ний, візуальний орієнтир або сегмент на моделі будівлі в симуляторі AirSim; 2) надійне розпізнавання та наведення на один конкретний тип стандартизо- ваного промислового об’єкта (наприклад, цех виробничого підприємства, конк- ретна цистерна НПЗ) в симуляторі та, за можливості, на реальному стенді; 3) підтримка розпізнавання та наведення на деякі інші об’єкти критичної ін- фраструктури (конкретний перелік потребує визначення) або військові цілі (літаки). Платформа включає шість підсистем, що розглядаються далі. 1. Підсистема збору та підготовки даних. За допомогою цієї підсистеми за- безпечується ідентифікація основних джерел даних, зокрема супутникових знім- ків, відео з БПЛА та даних симуляцій. Вона надає методологію та інструментарій для маркування даних з використанням обмежувальних рамок (bounding boxes) та методів сегментації цільових наборів даних і керування ними, а також застосу- ванням методів аугментації для підвищення різноманітності та якості даних. Для підтримки цих процесів і планування місій створюється відповідне АРМ. 2. Підсистема розробки моделей комп’ютерного зору та машинного навчання (CV / ML). У результаті дослідження та порівняльного аналізу для задач виявлення Результати тренувань Нерозмічений датасет CVAT CVAT — система розмітки датасетів Готовий датасет Конфігуратор YOLO Конфігурація, готовий датасет Тренування YOLO Налаштування місії Дані щодо місії (куди летіти, що робити) ArduPilot Результати місії Метрики та дані Керування об’єктом AirSim Сцена Налаштування сцени Дані щодо сцени Міжнародний науково-технічний журнал Проблеми керування та інформатики, 2025, № 5 15 та класифікації об’єктів обрано архітектуру згорткових нейронних мереж (CNN), зокрема YOLO. Проведено навчання моделей та їх подальше тонке налаштування з орієнтацією на виявлення об’єктів. 3. Підсистема розробки моделей класифікації. Визначено метод реалізації класифікації цілей за критерієм «впливу на економіку оборонно-промислового комплексу». БПЛА здійснює вибір цілі з попередньо визначеної бібліотеки та формує оптимальну траєкторію атаки. Розробляється модуль класифікації, інтег- рований до АРМ підготовки даних і планування місій. 4. Підсистема бортового програмного забезпечення БПЛА (на основі ROS2). Розробляється архітектура вузлів ROS2 з визначенням відповідних тематичних каналів, сервісів та дій. Інтегруються навчені моделі CV до ROS2-вузлів. Реалізу- ються інтерфейси для приймання відеопотоку (у тому числі з симулятора), алго- ритми обчислення команд коригування та інтерфейс передачі цих команд системі керування польотом. 5. Підсистема симуляції та валідації. Налаштовано середовище Microsoft AirSim: реалізовано сцени та створено моделі цілей. Проведено інтеграцію ROS2-вузлів із середовищем симуляції. Проведено симуляційні експерименти. Сформовано централізоване середовище моделювання AirSim, а також створено АРМ-тестування, яке забезпечує побудову сценаріїв, їх виконання та подальший аналіз результатів. Як приклад на рис. 6 наведено знімки екранів інструментів Mission Planner та AirSim, за допомогою яких здійснюється моделювання підйому коптера. Рис. 6 16 ISSN 2786-6491 Висновок У межах виконаного дослідження розроблено архітектуру програмної плат- форми для автоматизованого виявлення, класифікації та ураження цілей ударними БПЛА на основі технологій штучного інтелекту, комп’ютерного зору та машинного навчання. Запропоновані архітектурні та алгоритмічні рішення забезпечують мож- ливість створення адаптивної, масштабованої та функціонально завершеної систе- ми, здатної до інтеграції з наявними інструментами ситуаційної обізнаності. Платформа, що розробляється, включає повний цикл функціональних компонен- тів, серед яких підсистема збору та підготовки даних; модулі нейронних мереж для виявлення, класифікації та визначення пріоритетних цілей; бортове програмне забез- печення БПЛА (ROS2); середовище моделювання та валідації (AirSim); інтерфейси для планування місій; інструменти для автоматизованих експериментів. Результати валідації засвідчили здатність системи до високоточних дій, зокрема наведення на візуальні орієнтири в умовах симуляції; надійне розпізна- вання об’єктів критичної інфраструктури; адаптацію до умов радіоелектронної боротьби та відсутності GPS. Розроблений підхід дає змогу суттєво підвищити автономність бойових дій із застосуванням БПЛА, зменшити залежність від оператора, а також сформувати основу для подальшого вдосконалення інтелектуальних систем ураження. У майбутніх дослідженнях планується розширення бібліотеки типів цілей, удосконалення методів визначення пріоритетних цілей та розвиток елементів адаптивного навчання на борту. I. Sinitsyn, A. Doroshenko, I. Kyrylov, Ia. Omelianenko, O. Yatsenko ADAPTIVE SOFTWARE SOLUTIONS FOR AUTOMATED DETECTION, CLASSIFICATION, TRACKING AND ENGAGEMENT OF TARGETS BY STRIKE UNMANNED AERIAL VEHICLES Igor Sinitsyn Institute of Software Systems of the National Academy of Sciences of Ukraine, Kyiv, ips@nas.gov.ua Anatoliy Doroshenko Institute of Software Systems of the National Academy of Sciences of Ukraine, National Technical University of Ukraine «Igor Sikorsky Kyiv Polytechnic Institute», Kyiv, doroshenkoanatoliy2@gmail.com Ivan Kyrylov Institute of Software Systems of the National Academy of Sciences of Ukraine, Kyiv, ivan.kyrylov.science@gmail.com Iaroslav Omelianenko Institute of Software Systems of the National Academy of Sciences of Ukraine, Kyiv, yaric@newground.com.ua Olena Yatsenko Institute of Software Systems of the National Academy of Sciences of Ukraine, Kyiv, oayat@ukr.net mailto:ivan.kyrylov.science@gmail.com Міжнародний науково-технічний журнал Проблеми керування та інформатики, 2025, № 5 17 The paper considers an approach to the development of adaptive software solutions for automated detection, classification, and target locking of strike unmanned aerial ve- hicles (UAVs). The relevance of the study is determined by the growing need for autonomous combat systems capable of rapid analysis and accurate engagement of targets in complex and dynamic environments, particularly under conditions of electronic warfare, interference, signal noise, or the absence of satellite navigation signals. Ensuring reliable UAV operation in such conditions requires the use of intelli- gent data processing algorithms that enable the system to adapt its behavior to real- time situational changes and minimize the risk of failures. The proposed solution is based on modern methods of computer vision, deep learning, and machine learning algorithms, implemented in a modular architecture built on ROS2 and the Kubernetes environment, which ensures flexible service management, scalability, and high fault tolerance. Unlike traditional approaches, the proposed architecture allows for easy in- tegration of new modules and provides the ability to rapidly adapt to the emergence of new target classes or changing mission requirements. The developed platform com- prises six key subsystems: data collection and preprocessing, creation of computer vi- sion and classification models, implementation of onboard UAV software, a simula- tion and validation subsystem, as well as a module for testing on real hardware. This enables a complete research and verification cycle — from dataset formation and model training to integration in real operational conditions. The Microsoft AirSim simulation environment is integrated to test system behavior in conditions close to re- ality, with the ability to variably configure scenes and parameters, which makes it pos- sible to evaluate algorithm performance across a wide range of scenarios. Future re- search will focus on expanding the library of target types, improving methods of their prioritization, implementing adaptive onboard learning, and integrating with other situational awareness systems to enhance decision-making efficiency and autonomy. Keywords: unmanned aerial vehicle, computer vision, artificial intelligence, deep learning, target classification, targeting fixation, simulation. ПОСИЛАННЯ 1. Tang G., Ni J., Zhao Y., Gu Y., Cao W. A survey of object detection for UAVs based on deep learning. Remote Sensing. 2024. Vol. 16, N 1. P. 1–29. DOI: https://doi.org/10.3390/rs16010149 2. Drone detection and classification using computer vision / R. Valaboju, Vaishnavi, C. Harshitha, A.R. Kallam, B.S. Babu. The proceedings of the 7th International Conference on Trends in Electronics and Informatics (ICOEI). India: Tirunelveli, 11–13 April 2023. P. 1320–1328. DOI: https://doi.org/10.1109/ICOEI56765.2023.10125737 3. Vision-based anti-UAV detection and tracking / J. Zhao, J. Zhang, D. Li, D. Wang. IEEE Transactions on Intelligent Transportation Systems. 2022. Vol. 23, N 12. P. 25323–25334. DOI: https://doi.org/10.1109/TITS.2022.3177627 4. Statistical modeling of complex backgrounds for foreground object detection / L. Li, W. Huang, I.Y.H. Gu, Q. Tian. IEEE Transactions on Image Processing. 2004. Vol. 13, N 11. P. 1459–1472. DOI: https://doi.org/10.1109/TIP.2004.836169 5. Deep learning-based scene understanding for autonomous robots: a survey / J. Ni, Y. Chen, G. Tang, J. Shi, W.C. Cao, P. Shi. Intelligence & Robotics. 2023. Vol. 3, N 3. P. 374–401. DOI: https://doi.org/10.20517/ir.2023.22 6. Feature extraction for hyperspectral imagery (the evolution from shallow to deep: overview and toolbox) / B. Rasti, D. Hong, R. Hang, P. Ghamisi, X. Kang, J. Chanussot, J.A. Benediktsson. IEEE Geoscience and Remote Sensing Magazine. 2020. Vol. 8, N 4. P. 60–88. DOI: https://doi. org/10.1109/MGRS.2020.2979764 7. Graph convolutional networks for hyperspectral image classification / D. Hong, L. Gao, J. Yao, B. Zhang, A. Plaza, J. Chanussot. IEEE Geoscience and Remote Sensing. 2021. Vol. 59, N 7. P. 5966–5978. DOI: https://doi.org/10.1109/TGRS.2020.3015157 8. Vision-based anti-UAV detection based on YOLOv7-GS in complex backgrounds / C. Bo, Y. Wei, X. Wang, Z. Shi, Y. Xiao. Drones. 2024. Vol. 8, N 7. ID: 331. 21 p. DOI: https://doi.org/ 10.3390/drones8070331 9. Fast automatic vehicle detection in UAV images using convolutional neural networks / X. Luo, X. Tian, H. Zhang, W. Hou, G. Leng, W. Xu, H. Jia, X. He, M. Wang, J. Zhang. Remote Sensing. 2020. Vol. 12, N 12. ID: 1994. 15 p. DOI: https://doi.org/10.3390/rs12121994 10. You only look once: unified, real-time object detection / J. Redmon, S. Divvala, R. Girshick, A. Farhadi. The proceedings of the 29th IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR). USA: Las Vegas, 27–30 June 2016. P. 779–788. DOI: https:// doi.org/10.1109/CVPR.2016.91 https://doi.org/10.3390/rs16010149 18 ISSN 2786-6491 11. An improved SSD-Like deep network-based object detection method for indoor scenes / J. Ni, K. Shen, Y. Chen, S.X. Yang. IEEE Transactions on Instrumentation and Measurement. 2023. Vol. 72. ID: 5006915. 15 p. DOI: https://doi.org/10.1109/TIM.2023.3244819 12. Rich feature hierarchies for accurate object detection and semantic segmentation / R. Girshick, J. Donahue, T. Darrell, J. Malik. The proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR). USA: Columbus, 23–28 June 2014. P. 580–587. DOI: https://doi.org/10.1109/CVPR.2014.81 13. Faster R-CNN: towards real-time object detection with region proposal networks / S. Ren, K. He, R. Girshick, J. Sun. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017. Vol. 39, N 6. P. 1137–1149. DOI: https://doi.org/10.1109/TPAMI.2016.2577031 14. An improved deep network-based scene classification method for self-driving cars / J. Ni, K. Shen, Y. Chen, W. Cao, S.X. Yang. IEEE Transactions on Instrumentation and Measurement. 2022. Vol. 71. ID: 5001614. 14 p. DOI: https://doi.org/10.1109/TIM.2022.3146923 15. Designing neural networks through neuroevolution / K.O. Stanley, J. Clune, J. Lehman, R. Miikkulainen. Nature Machine Intelligence. 2019. Vol. 1. P. 24–35. DOI: https://doi.org/10. 1038/s42256-018-0006-z 16. Omelianenko I. Hands-on neuroevolution with Python. Birmingham : Packt, 2019. 370 p. 17. Платформа DRMS для розробки прикладного та спеціального ПЗ. IT-Solutions. URL: https://it-solutions.ua/it-infrastruktura/fizichna/platforma-drms 18. Lowe D.G. Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision. 2004. Vol. 60, N 2. P. 91–110. DOI: https://doi.org/10.1023/B:VISI. 0000029664.99615.94 19. Bay H., Tuytelaars T., Van Gool L. SURF: speeded up robust features. The Proceedings of the 9th European Conference on Computer Vision (ECCV 2006). Austria: Graz, 7–13 May 2006. Lecture Notes in Computer Science (LNIP). Berlin : Springer, 2006. Vol. 3951. Part 1. P. 404–417. DOI: https://doi.org/10.1007/11744023_32 20. Dalal N., Triggs B. Histograms of oriented gradients for human detection. The Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05). USA: San Diego, 20–25 June 2005. Piscataway : IEEE, 2005. Vol. 1. P. 886–893. DOI: https://doi.org/10.1109/CVPR.2005.177 21. An image is worth 16 x 16 words: transformers for image recognition at scale / A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani, M. Minderer, G. Heigold, S. Gelly, J. Uszkoreit, N. Houlsby. arXiv. 2021. 22 p. DOI: https://doi. org/10.48550/arXiv.2010.11929 22. End-to-end object detection with transformers / N. Carion, F. Massa, G. Synnaeve, N. Usunier, A. Kirillov, S. Zagoruyko. The Proceedings of the 16th European Conference on Computer Vision (ECCV). UK: Glasgow, 23–28 August 2020. Lecture Notes in Computer Science (LNIP). Cham : Springer, 2020. Vol. 12346. Part 1. P. 213–229. DOI: https://doi.org/10.1007/978-3-030-58452-8_13 23. Shi J., Tomasi C. Good features to track. The Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA: Seattle, 21–23 June 1994. P. 593–600. DOI: https://doi.org/10.1109/CVPR.1994.323794 24. Simple online and realtime tracking / A. Bewley, Z. Ge, L. Ott, F. Ramos, B. Upcroft. The Proceedings of the IEEE International Conference on Image Processing (ICIP). USA: Phoenix, 25–28 September 2016. Piscataway : IEEE, 2016. P. 3464–3468. DOI: https://doi.org/10.1109/ICIP.2016.7533003 25. Wojke N., Bewley A., Paulus D. Simple online and realtime tracking with a deep association metric. The Proceedings of the IEEE International Conference on Image Processing (ICIP). China: Beijing, 17–20 September 2017. Piscataway : IEEE, 2017. P. 3645–3649. DOI: https://doi.org/10.1109/ICIP.2017.8296962 26. ROS: an open-source robot operating system / M. Quigley, K. Conley, B. Gerkey, J. Faust, T. Foote, J. Leibs, R. Wheeler., A.Y. Ng. IEEE International Conference on Robotics and Automation (ICRA). A workshop on open source software. Japan: Kobe, 12–17 May 2009. 6 p. http://www.robotics.stanford.edu/~ang/papers/icraoss09-ROS.pdf 27. Mission Planner Overview. ArduPilot. URL: https://ardupilot.org/planner/docs/mission-planner- overview.html 28. SITL simulator (software in the loop). ArduPilot. URL: https://ardupilot.org/dev/docs/sitl- simulator-software-in-the-loop.html 29. Airsim: high-fidelity visual and physical simulation for autonomous vehicles / S. Shah, D. Dey, C. Lovett, A. Kapoor. Field and Service Robotics / ed. by M. Hutter, R. Siegwart. Springer Proceedings in Advanced Robotics (SPAR). Cham : Springer, 2018. Vol. 5. P. 621–635. https:// doi.org/10.1007/978-3-319-67361-5_40 Отримано 04.08.2025 Доопрацьовано 26.09.2025 https://doi.org/10.1007/11744023_32 https://doi.org/10.1109/CVPR.2005.177 https://doi.org/10.1007/978-3-030-58452-8_13 http://www.robotics.stanford.edu/~ang/papers/icraoss09-ROS.pdf
id nasplib_isofts_kiev_ua-123456789-211448
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 0572-2691
language Ukrainian
last_indexed 2026-03-14T12:56:55Z
publishDate 2025
publisher Інститут кібернетики ім. В.М. Глушкова НАН України
record_format dspace
spelling Сініцин, І.П.
Дорошенко, А.Ю.
Кирилов, І.І.
Омельяненко, Я.В.
Яценко, О.А.
2026-01-02T15:26:55Z
2025
Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами / І.П. Сініцин, А.Ю. Дорошенко, І.І. Кирилов, Я.В. Омельяненко, О.А. Яценко // Проблемы управления и информатики. — 2025. — № 5. — С. 5-18. — Бібліогр.: 29 назв. — укр.
0572-2691
https://nasplib.isofts.kiev.ua/handle/123456789/211448
10.34229/1028-0979-2025-5-1
Розглянуто підхід до розробки адаптивних програмних рішень щодо автоматизованого виявлення, класифікації та захоплення цілей ударними безпілотними літальними апаратами (БПЛА).
The paper considers an approach to the development of adaptive software solutions for automated detection, classification, and target locking of strike unmanned aerial vehicles (UAVs).
uk
Інститут кібернетики ім. В.М. Глушкова НАН України
Проблеми керування та інформатики
Адаптивне керування та методи ідентифікації
Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами
Adaptive software solutions for automated detection, classification, tracking and engagement of targets by strike unmanned aerial vehicles
Article
published earlier
spellingShingle Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами
Сініцин, І.П.
Дорошенко, А.Ю.
Кирилов, І.І.
Омельяненко, Я.В.
Яценко, О.А.
Адаптивне керування та методи ідентифікації
title Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами
title_alt Adaptive software solutions for automated detection, classification, tracking and engagement of targets by strike unmanned aerial vehicles
title_full Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами
title_fullStr Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами
title_full_unstemmed Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами
title_short Адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами
title_sort адаптивні програмні рішення щодо автоматизованого виявлення, класифікації, захоплення та ураження цілей ударними безпілотними літальними апаратами
topic Адаптивне керування та методи ідентифікації
topic_facet Адаптивне керування та методи ідентифікації
url https://nasplib.isofts.kiev.ua/handle/123456789/211448
work_keys_str_mv AT síníciníp adaptivníprogramníríšennâŝodoavtomatizovanogoviâvlennâklasifíkacíízahoplennâtauražennâcíleiudarnimibezpílotnimilítalʹnimiaparatami
AT dorošenkoaû adaptivníprogramníríšennâŝodoavtomatizovanogoviâvlennâklasifíkacíízahoplennâtauražennâcíleiudarnimibezpílotnimilítalʹnimiaparatami
AT kirilovíí adaptivníprogramníríšennâŝodoavtomatizovanogoviâvlennâklasifíkacíízahoplennâtauražennâcíleiudarnimibezpílotnimilítalʹnimiaparatami
AT omelʹânenkoâv adaptivníprogramníríšennâŝodoavtomatizovanogoviâvlennâklasifíkacíízahoplennâtauražennâcíleiudarnimibezpílotnimilítalʹnimiaparatami
AT âcenkooa adaptivníprogramníríšennâŝodoavtomatizovanogoviâvlennâklasifíkacíízahoplennâtauražennâcíleiudarnimibezpílotnimilítalʹnimiaparatami
AT síníciníp adaptivesoftwaresolutionsforautomateddetectionclassificationtrackingandengagementoftargetsbystrikeunmannedaerialvehicles
AT dorošenkoaû adaptivesoftwaresolutionsforautomateddetectionclassificationtrackingandengagementoftargetsbystrikeunmannedaerialvehicles
AT kirilovíí adaptivesoftwaresolutionsforautomateddetectionclassificationtrackingandengagementoftargetsbystrikeunmannedaerialvehicles
AT omelʹânenkoâv adaptivesoftwaresolutionsforautomateddetectionclassificationtrackingandengagementoftargetsbystrikeunmannedaerialvehicles
AT âcenkooa adaptivesoftwaresolutionsforautomateddetectionclassificationtrackingandengagementoftargetsbystrikeunmannedaerialvehicles