Оцінка ефективності методів розпізнавання образів та сегментації зображень для систем технічного зору малих безпілотних апаратів
DOI:
https://doi.org/10.20535/0203-3771472024307705Ключові слова:
cистема технічного зору, безпілотний апарат, навігаційна система, система керування, алгоритм розпізнавання образу, алгоритм сегментації зображеньАнотація
Системи технічного зору є перспективним доповненням для навігації безпілотних рухомих апаратів завдяки їх здатності розпізнавати, відстежувати та локалізувати навігаційні орієнтири, що є критичним для роботи автономних систем автоматичного керування. Проведений аналіз алгоритмів систем технічного зору для розпізнавання навігаційних орієнтирів і використання в умовах обмежених ресурсів. Встановлено, що алгоритми на основі нейронних мереж демонструють високу швидкість та точність, що робить їх оптимальними для прикладного застосування. Однак їх навчання потребує значних ресурсів і ретельної підготовки даних. Оптимізація після навчання дозволяє ефективно використовувати їх на пристроях з обмеженими обчислювальними ресурсами.
Проведені дослідження та виконані експерименти показали ефективність запропонованого алгоритму сегментації зображень для його використання в системі технічного зору сучасних безпілотних транспортних засобів.
Посилання
Zhefan Xu, Yumeng Xiu, Xiaoyang Zhan, Baihan Chen, Kenji Shimada. Vision-aided UAV navigation and dynamic obstacle avoidance using gradient-based B-spline trajectory optimization// [Online]. 15. 09. 2022. Available: https://arxiv.org/abs/2209.07003 7 p.
Xin Wu, Wei Li, Danfeng Hong, Ran Tao, Qian Du. Deep Learning for UAV-based Object Detection and Tracking: A Survey// [Online]. 25. 10. 2021. Available: https://arxiv.org/abs/2110.12638 24 p.
Martin Messmer, Benjamin Kiefer, Leon Amadeus Varga, Andreas Zell. UAV-Assisted Maritime Search and Rescue: A Holistic Approach// [Online]. 21. 03. 2024. Available: https://arxiv.org/abs/2403.14281 8 p.
Yulin Wang, Yizeng Han, Chaofei Wang, Shiji Song, Qi Tian, Gao Huang. Computation-efficient Deep Learning for Computer Vision: A Survey// [Online]. 27. 08. 2023. Available: https://arxiv.org/abs/2308.13998 47 p.
Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi. You Only Look Once: Unified Real-Time Object Detection// [Online]. 09. 05. 2016. Available: https://arxiv.org/abs/1506.02640 10 p.
Keiron O'Shea, Ryan Nash. An Introduction to Convolutional Neural Networks// [Online]. 02. 12. 2015. Available: https://arxiv.org/abs/1511.08458 11 p.
Abolfazl Younesi, Mohsen Ansari, Mohammad Amin Fazli, Alireza Ejlali, Muhammad Shafique, Jörg Henkel. A Comprehensive Survey of Convolutions in Deep Learning: Applications, Challenges, and Future Trends// [Online]. 28 02 2024. Available: https://arxiv.org/abs/2402.15490 37 p.
Ross Girshick, Jeff Donahue, Trevor Darrell, Jitendra Malik. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation// [Online]. 22. 10. 2014. Available: https://arxiv.org/abs/1311.2524 21 p.
Karen Simonyan, Andrew Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recognition// [Online] 04. 09. 2014. Available: https://arxiv.org/abs/1409.1556 14 p.
R. Szeliski. Computer Vision: Algorithms and Applications, 2nd ed., The University of Washington: Springer, 2022.
Chien-Yao Wang, Alexey Bochkovskiy, H. Y. M. Liao. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors// [Online]. 06. 01. 2021. Available: https://arxiv.org/abs/2207.02696 15 p.
Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks// [Online]. 06. 01. 2016. Available: https://arxiv.org/abs/1506.01497 14 p/
Kaiming He, Georgia Gkioxari, Piotr Dollár, Ross Girshick. Mask R-CNN. // [Online] 20.03. 2017. Available: https://arxiv.org/abs/1703.06870 12 p.
Sandler, M., Howard, A., Zhu, M., Zhmoginov, A., and Chen, L. MobileNetV2: Inverted Residuals and Linear Bottlenecks// [Online] 13. 01. 2018. Available: https://arxiv.org/abs/1801.04381 14 p.
Shiwen Zhao, Wei Wang, Junhui Hou, Hai Wu. Hybrid Pooling and Convolutional Network for Improving Accuracy and Training Convergence Speed in Object Detection// [Online] 02 01 2024. Available: https://arxiv.org/abs/2401.01134 10 p.
Utku Evci, Trevor Gale, Jacob Menick, Pablo Samuel Castro, Erich Elsen. Rigging the Lottery: Making All Tickets Winners// [Online]. 20. 11. 2019. Available: https://arxiv.org/abs/1911.11134 19 p.
Mingxing Tan, Ruoming Pang, Quoc V. Le. EfficientDet: Scalable and Efficient Object Detection// [Online]. 20. 11. 2019. Available: https://arxiv.org/abs/1911.09070 10 p.
Forrest N. Iandola, Song Han, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size// [Online]. 24. 02. 2016. Available: https://arxiv.org/abs/1602.07360 13 p.
Zhang, X., Zhou, X., Lin, M., and Sun, J. ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices// [Online]. 04. 07. 2017. Available: https://arxiv.org/abs/1707.01083 9 p.
Wei Liu, Dragomir Anguelov, et al. SSD: Single Shot Multibox Detector// [Online]. 08 12 2016. Available: https://arxiv.org/abs/1512.02325 17p
TensorFlow 2 Detection Model Zoohttps://github.com/tensorflow/models/
blob/master/research/object_detection/g3doc/tf2_detection_zoo.md
Moghadam P., Sardha W., Moratuwage D. Towards A Fully-Autonomous Vision-based Vehicle// 2011. [Online]. Available: https://www.researchgate.net/publication/224216657_Towards_a_fully-autonomous_vision-based_vehicle_navigation_system_in_outdoor_environments.
Anantharam P. Disparity Map Computation in Python and C++// 22. 05. 2020. [Online]. Available: https://pramod-atre.medium.com/disparity-map-computation-in-python-and-c-c8113c63d701.
Iloie A., Giosan I., Nedevsch S. UV disparity based obstacle detection and pedestrian classification in urban traffic scenarios//- 2014.- IEEE 10th International Conference on Intelligent Computer Communication and Processing (ICCP), pp. 119-125.
OpenCV Open Source Computer Vision. Camera Calibration and 3D Reconstruction// 27. 12. 2023. [Online]. Available: https://docs.opencv.org/4.9.0/d9/d0c/group__calib3d.html.
Kaustubh S. Stereo Camera Depth Estimation With OpenCV (PythonC++)// 05. 04. 2021. [Online]. Available: https://learnopencv.com/depth-perception-using-stereo-camera-python-c.
Mancini M, Costante G., Valigi P., Ciarfuglia T. A. Fast Robust Monocular Depth Estimation for Obstacle Detection with Fully Convolutional Networks// 21. 07. 2016. [Online]. Available: https://arxiv.org/abs/1607.06349.
Ranftl R., Lasinger K., Hafner D., Schindler K., Koltun V. Towards Robust Monocular Depth Estimation: Mixing Datasets for Zero-shot Cross-dataset Transfer//Computer Vision and Pattern Recognition (cs.CV), 2020. [Online]. Available: https://arxiv.org/abs/1907.01341.
Yang L., Kang B., Huang Z., Xu X., Feng J., Zhao H. Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data// 07. 04. 2024. [Online]. Available: https://arxiv.org/abs/2401.10891. [Дата звернення: 08 05 2024].
Musleh B., De la Escalera A., Armingol J. U-V Disparity Analysis in Urban Environments// Computer Aided Systems Theory. – EUROCAST 2011. EUROCAST 2011. Lecture Notes in Computer Science, vol 6928, Springer, Berlin, Heidelberg, 2011.
Otsu N. A Threshold Selection Method from Gray-Level Histograms// IEEE Trans. Syst. Man Cybern.-V. 9, pp. 62-66, 1979.
Yuan J., Jiang T., He X., Wu S., Liu J., Guo D. Dynamic obstacle detection method based on U–V disparity and residual optical flow for autonomous driving//10. 05. 2023. [Online]. Available: https://doi.org/10.1038/s41598-023-34777-6.
Canny J. A computational approach to edge detection,» IEEE Transactions on Pattern Analysis and Machine Intelligence, т. 8, № 6, p. 679–698, 1986.
Xu L., Oja E., Kultanen P. A new curve detection method: Randomized Hough transform (RHT)// Pattern Recognition Letters .-Volume 11, № Issue 5, pp. 331-338, 1990.
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:1. Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution License, котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
2. Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
3. Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису роботи, як до подання цього рукопису до редакції, так і під час його редакційного опрацювання, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи (див. The Effect of Open Access).