Комп’ютерний зір для розвідки з БПЛА в умовах сучасної війни

Автор(и)

  • Анатолій Тарасович Кот Національний технічний університет України «Київський політехнічний інститут ім. І. Сікорського» https://orcid.org/0000-0002-7490-8834

DOI:

https://doi.org/10.18372/1990-5548.86.20560

Ключові слова:

безпілотні літальні апарати, комп’ютерний зір, глибоке навчання, детекція об’єктів, військова розвідка, нейронні мережі

Анотація

У статті розглянуто застосування методів комп’ютерного зору та глибокого навчання для автоматизованої повітряної розвідки з використанням безпілотних літальних апаратів в умовах сучасної війни. Проаналізовано основні класи об’єктів розвідки, включаючи військову техніку, укріплення, артилерійські позиції та групи живої сили. Запропоновано підхід до побудови системи виявлення об’єктів на основі глибоких нейронних мереж, зокрема детекторів типу YOLO та сегментаційних моделей U-Net. Описано процес підготовки та аугментації даних з урахуванням бойових факторів (дим, вибухи, низька освітленість, зсув зображення та шум). Проведено експериментальну оцінку якості виявлення обʼєктів у різних сценаріях. Показано, що використання спеціально адаптованої аугментації значно підвищує стійкість моделей до завад. Обговорено обмеження запропонованого підходу та напрями подальших досліджень.

Біографія автора

Анатолій Тарасович Кот, Національний технічний університет України «Київський політехнічний інститут ім. І. Сікорського»

Аспірант

Кафедра штучного інтелекту

Навчально-науковий інститут прикладного системного аналізу

Посилання

J. Redmon and A. Farhadi, “YOLOv3: An Incremental Improvement,” arXiv preprint arXiv:1804.02767, 2018. https://arxiv.org/abs/1804.02767

A. Bochkovskiy, C.-Y. Wang, and H.-Y. M. Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection,” arXiv preprint arXiv:2004.10934, 2020. https://arxiv.org/abs/2004.10934

O. Ronneberger, P. Fischer, and T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation,” Proc. MICCAI, 2015. https://arxiv.org/abs/1505.04597 https://doi.org/10.1007/978-3-319-24574-4_28

T.-Y. Lin, P. Goyal, R. Girshick, K. He, and P. Dollár, “Focal Loss for Dense Object Detection,” IEEE International Conference on Computer Vision (ICCV), 2017. https://arxiv.org/abs/1708.02002 https://doi.org/10.1109/ICCV.2017.324

M. Everingham, L. Van Gool, C. K. I. Williams, J. Winn, and A. Zisserman, “The PASCAL Visual Object Classes (VOC) Challenge,” International Journal of Computer Vision, vol. 88, no. 2, pp. 303–338, 2010. https://link.springer.com/article/10.1007/s11263-009-0275-4

G.-S. Xia, J. Hu, F. Hu, X. Shi, X. Bai, Y. Zhong, L. Zhang, and X. Lu, “DOTA: A Large-Scale Dataset for Object Detection in Aerial Images,” Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018. https://arxiv.org/abs/1711.10398 https://doi.org/10.1109/CVPR.2018.00418

D. Lam, et al., “xView: Objects in Context in Overhead Imagery,” Proc. IEEE CVPR, 2018. https://arxiv.org/abs/1802.07856

S. Shah, D. Dey, C. Lovett, and A. Kapoor, “AirSim: High-Fidelity Visual and Physical Simulation for Autonomous Vehicles,” Proc. IEEE CVPR, 2017. https://arxiv.org/abs/1705.05065 https://doi.org/10.1007/978-3-319-67361-5_40

A. G. Howard, et al., “MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications,” arXiv preprint arXiv:1704.04861, 2017. https://arxiv.org/abs/1704.04861

A. Garcia, A. Gordon, J. Hurst, S. Konecny, S. Kim, and K. An, “Glider: A Deep Learning Framework for Edge Inference,” arXiv preprint arXiv:2003.03119, 2020. https://arxiv.org/abs/2003.03119

C. Shorten and T. M. Khoshgoftaar, “A Survey on Image Data Augmentation for Deep Learning,” Journal of Big Data, vol. 6, no. https://journalofbigdata.springeropen.com/articles/10.1186/s40537-019-0197-0 60, 2019.

I. Goodfellow, Y. Bengio, and A. Courville, “Deep Learning,” MIT Press, Cambridge, 2016. https://www.deeplearningbook.org

##submission.downloads##

Опубліковано

2025-12-13

Номер

Розділ

КОМП’ЮТЕРНІ НАУКИ ТА ІНФОРМАЦІЙНІ ТЕХНОЛОГІЇ