МЕТОД УЗГОДЖЕНОГО ЗА РУХОМ ЧАСОВОГО Ф’ЮЖНА ДЛЯ ВИЯВЛЕННЯ ТА ВІДСТЕЖЕННЯ БПЛА

Автор(и)

  • Ірина ЮРЧУК, канд. фіз.-мат. наук, доцент Київський національний університет імені Тараса Шевченка, Київ, Україна Автор
  • Тарас СЕМЕНЧЕНКО, асп. Київський національний університет імені Тараса Шевченка image/svg+xml Автор

DOI:

https://doi.org/10.17721/AIT.2025.1.03

Ключові слова:

БПЛА, трекінг об’єктів, детекція об’єктів, алгоритм ф’южна, фільтр руху, RT-DETR, ByteTrack

Анотація

Вступ. Виявлення та відстеження безпілотних літальних апаратів (БПЛА) у відеопотоках є критично важливим завданням сучасного моніторингу повітряного простору. Водночас воно залишається складним через малі розміри, швидкий рух БПЛА та їхню схожість із птахами чи фоновими об’єктами. Типові детектори формують нестабільні результати, які залежать від кадрів, а класичні трекери часто дають хибні спрацьовування та помилки детекції. Метою цієї роботи є стабілізація детекцій БПЛА додаванням до стандартного детекції-трекінг пайплайну спеціального методу часово-просторового ф’южна, чутливого до характеру руху об’єкта.

Методи. Базову систему RT-DETR + ByteTrack розширено за допомогою легкого методу узгодженого з рухом згладжування (MCF), який не залежить від навчання. Цей метод: (i) агрегує історію обмежувальних рамок за останні п’ять кадрів, (ii) усереднює просторові координати та рівні довіри, (iii) штрафує знайдені об’єкти, у яких короткочасні зміни швидкості або кута перевищують емпірично обрані пороги. Жодні ознаки зовнішності чи додаткове навчання не потрібні, тож рішення працює в реальному часі на одному GPU.

Результати. Експерименти на розміченому наборі відео з БПЛА показують, що запропонований метод підвищує MOTA з 0.533 до 0.591, Precision – із 73 % до 84 %, а кількість помилок ідентифікації зменшується із 60 до 28 (покращення на 53 % у стабільності ідентифікації). Recall трохи знижується з 90 % до 76 %, що відображає свідомий компроміс: система відфільтровує нестабільні або нехарактерні для БПЛА траєкторії, щоб покращити точність і зменшити кількість хибних спрацьовувань. Оцінювання проведено на понад 1 000 відеозаписах, що забезпечує надійність результатів у різноманітних умовах польоту.

Висновки. Запропонований метод ф’южна суттєво покращує як точність, так і стабільність результатів у послідовності кадрів відеовідстеження, практично не збільшуючи обчислювальні витрати. Його можна легко інтегрувати у вже наявні системи детекції та трекінгу. Метод особливо ефективний для застосування в реальному часі, хоча його продуктивність може знижуватися у випадках різких або непередбачуваних маневрів БПЛА поза межами заздалегідь визначених параметрів руху.

Завантажити

Дані для завантаження поки недоступні.

Посилання

Aharon, N., Orfaig, R., & Bobrovsky, B.-Z. (2022). BoT-SORT: Robust associations multi-pedestrian tracking. arXiv. https://doi.org/10.48550/arXiv.2206.14651

Do, N.-T., Nguyen, N. N.-Y., Nguyen, D.-P., & Do, T.-H. (2024). Ramots: A real-time system for aerial multi-object tracking based on deep learning and big data technology. In 2024 16th International Conference on Knowledge and System Engineering (KSE) (pp. 1–6). VNU University of Engineering and Technology. https://doi.org/10.1109/KSE63888.2024.11063545

Fu, C., Lei, X., Zuo, H., Yao, L., Zheng, G., & Pan, J. (2024). Progressive representation learning for real-time UAV tracking. In 2024 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (pp. 5072–5079). School of Electrical and Electronic Engineering, Nanyang Technological University. https://doi.org/10.1109/IROS58592.2024.10803050

Jiang, N., Wang, K., Peng, X., Yu, X., Wang, Q., Xing, J., Li, G., Zhao, J., Guo, G., & Han, Z. (2021). Anti-UAV: A large multi-modal benchmark for UAV tracking. arXiv. https://doi.org/10.48550/arXiv.2101.08466

Reis, D., Kupec, J., Hong, J., & Daoudi, A. (2023). Real-time flying object detection with yolov8. arXiv. https://doi.org/10.48550/arXiv.2305.09972

Wang, A., Chen, H., Liu, L., Chen, K., Lin, Z., Han, J., & Ding, G. (2024). Yolov10: Real-time end-to-end object detection. Advances in Neural Information Processing Systems, 37, 107984–108011. https://proceedings.neurips.cc/paper_files/paper/2024/hash/c34ddd05eb089991f06f3c5dc36836e0-Abstract-Conference.html

Wang, S., Xia, C., Lv, F., & Shi, Y. (2025). Rt-detrv3: Real-time end-to-end object detection with hierarchical dense positive supervision. In 2025 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) (pp. 1628–1636). Johns Hopkins University. https://doi.org/10.1109/WACV61041.2025.00166

Yu, Q., Ma, Y., He, J., Yang, D., & Zhang, T. (2023). A unified transformer based tracker for anti-UAV tracking. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) Workshops (pp. 3036–3046). IEEE Computer Society; Computer Vision Foundation. https://openaccess.thecvf.com/content/CVPR2023W/Anti-UAV/html/Yu_A_Unified_Transformer_Based_Tracker_for_Anti-UAV_Tracking_CVPRW_2023_paper.html

Zhang, P., Zhao, J., Wang, D., Lu, H., & Ruan, X. (2022). Visible-thermal UAV tracking: A large-scale benchmark and new baseline. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 8886–8895). IEEE Computer Society; Computer Vision Foundation. https://openaccess.thecvf.com/content/CVPR2022/html/Zhang_Visible-Thermal_UAV_Tracking_A_Large-Scale_Benchmark_and_New_Baseline_CVPR_2022_paper.html

Zhang, Y., Sun, P., Jiang, Y., Yu, D., Weng, F., Yuan, Z., Luo, P., Liu, W., & Wang, X. (2022). Bytetrack: Multi-object tracking by associating every detection box. In S. Avidan, G. Brostow, M. Cissé, G. M. Farinella, & T. Hassner (Eds.), Computer Vision – ECCV 2022 (pp. 1–21). Springer Nature Switzerland. https://doi.org/10.1007/978-3-031-20047-2_1

Zhao, J., Zhang, J., Li, D., & Wang, D. (2022). Vision-based anti-uav detection and tracking. IEEE Transactions on Intelligent Transportation Systems, 23(12), 25323–25334. https://doi.org/10.1109/TITS.2022.3177627

Завантаження

Опубліковано

2025-11-17

Номер

Розділ

Прикладні інформаційні системи та технології

Статті цього автора (цих авторів), які найбільше читають