Оцінка ефективності методів розпізнавання образів та сегментації зображень для систем технічного зору малих безпілотних апаратів
DOI:
https://doi.org/10.20535/0203-3771472024307705Ключові слова:
cистема технічного зору, безпілотний апарат, навігаційна система, система керування, алгоритм розпізнавання образу, алгоритм сегментації зображеньАнотація
Системи технічного зору є перспективним доповненням для навігації безпілотних рухомих апаратів завдяки їх здатності розпізнавати, відстежувати та локалізувати навігаційні орієнтири, що є критичним для роботи автономних систем автоматичного керування. Проведений аналіз алгоритмів систем технічного зору для розпізнавання навігаційних орієнтирів і використання в умовах обмежених ресурсів. Встановлено, що алгоритми на основі нейронних мереж демонструють високу швидкість та точність, що робить їх оптимальними для прикладного застосування. Однак їх навчання потребує значних ресурсів і ретельної підготовки даних. Оптимізація після навчання дозволяє ефективно використовувати їх на пристроях з обмеженими обчислювальними ресурсами.
Проведені дослідження та виконані експерименти показали ефективність запропонованого алгоритму сегментації зображень для його використання в системі технічного зору сучасних безпілотних транспортних засобів.
Посилання
Zhefan Xu, Yumeng Xiu, Xiaoyang Zhan, Baihan Chen, Kenji Shimada. Vision-aided UAV navigation and dynamic obstacle avoidance using gradient-based B-spline trajectory optimization// [Online]. 15. 09. 2022. Available: https://arxiv.org/abs/2209.07003 7 p.
Xin Wu, Wei Li, Danfeng Hong, Ran Tao, Qian Du. Deep Learning for UAV-based Object Detection and Tracking: A Survey// [Online]. 25. 10. 2021. Available: https://arxiv.org/abs/2110.12638 24 p.
Martin Messmer, Benjamin Kiefer, Leon Amadeus Varga, Andreas Zell. UAV-Assisted Maritime Search and Rescue: A Holistic Approach// [Online]. 21. 03. 2024. Available: https://arxiv.org/abs/2403.14281 8 p.
Yulin Wang, Yizeng Han, Chaofei Wang, Shiji Song, Qi Tian, Gao Huang. Computation-efficient Deep Learning for Computer Vision: A Survey// [Online]. 27. 08. 2023. Available: https://arxiv.org/abs/2308.13998 47 p.
Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi. You Only Look Once: Unified Real-Time Object Detection// [Online]. 09. 05. 2016. Available: https://arxiv.org/abs/1506.02640 10 p.
Keiron O'Shea, Ryan Nash. An Introduction to Convolutional Neural Networks// [Online]. 02. 12. 2015. Available: https://arxiv.org/abs/1511.08458 11 p.
Abolfazl Younesi, Mohsen Ansari, Mohammad Amin Fazli, Alireza Ejlali, Muhammad Shafique, Jörg Henkel. A Comprehensive Survey of Convolutions in Deep Learning: Applications, Challenges, and Future Trends// [Online]. 28 02 2024. Available: https://arxiv.org/abs/2402.15490 37 p.
Ross Girshick, Jeff Donahue, Trevor Darrell, Jitendra Malik. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation// [Online]. 22. 10. 2014. Available: https://arxiv.org/abs/1311.2524 21 p.
Karen Simonyan, Andrew Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recognition// [Online] 04. 09. 2014. Available: https://arxiv.org/abs/1409.1556 14 p.
R. Szeliski. Computer Vision: Algorithms and Applications, 2nd ed., The University of Washington: Springer, 2022.
Chien-Yao Wang, Alexey Bochkovskiy, H. Y. M. Liao. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors// [Online]. 06. 01. 2021. Available: https://arxiv.org/abs/2207.02696 15 p.
Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks// [Online]. 06. 01. 2016. Available: https://arxiv.org/abs/1506.01497 14 p/
Kaiming He, Georgia Gkioxari, Piotr Dollár, Ross Girshick. Mask R-CNN. // [Online] 20.03. 2017. Available: https://arxiv.org/abs/1703.06870 12 p.
Sandler, M., Howard, A., Zhu, M., Zhmoginov, A., and Chen, L. MobileNetV2: Inverted Residuals and Linear Bottlenecks// [Online] 13. 01. 2018. Available: https://arxiv.org/abs/1801.04381 14 p.
Shiwen Zhao, Wei Wang, Junhui Hou, Hai Wu. Hybrid Pooling and Convolutional Network for Improving Accuracy and Training Convergence Speed in Object Detection// [Online] 02 01 2024. Available: https://arxiv.org/abs/2401.01134 10 p.
Utku Evci, Trevor Gale, Jacob Menick, Pablo Samuel Castro, Erich Elsen. Rigging the Lottery: Making All Tickets Winners// [Online]. 20. 11. 2019. Available: https://arxiv.org/abs/1911.11134 19 p.
Mingxing Tan, Ruoming Pang, Quoc V. Le. EfficientDet: Scalable and Efficient Object Detection// [Online]. 20. 11. 2019. Available: https://arxiv.org/abs/1911.09070 10 p.
Forrest N. Iandola, Song Han, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size// [Online]. 24. 02. 2016. Available: https://arxiv.org/abs/1602.07360 13 p.
Zhang, X., Zhou, X., Lin, M., and Sun, J. ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices// [Online]. 04. 07. 2017. Available: https://arxiv.org/abs/1707.01083 9 p.
Wei Liu, Dragomir Anguelov, et al. SSD: Single Shot Multibox Detector// [Online]. 08 12 2016. Available: https://arxiv.org/abs/1512.02325 17p
TensorFlow 2 Detection Model Zoohttps://github.com/tensorflow/models/
blob/master/research/object_detection/g3doc/tf2_detection_zoo.md
Moghadam P., Sardha W., Moratuwage D. Towards A Fully-Autonomous Vision-based Vehicle// 2011. [Online]. Available: https://www.researchgate.net/publication/224216657_Towards_a_fully-autonomous_vision-based_vehicle_navigation_system_in_outdoor_environments.
Anantharam P. Disparity Map Computation in Python and C++// 22. 05. 2020. [Online]. Available: https://pramod-atre.medium.com/disparity-map-computation-in-python-and-c-c8113c63d701.
Iloie A., Giosan I., Nedevsch S. UV disparity based obstacle detection and pedestrian classification in urban traffic scenarios//- 2014.- IEEE 10th International Conference on Intelligent Computer Communication and Processing (ICCP), pp. 119-125.
OpenCV Open Source Computer Vision. Camera Calibration and 3D Reconstruction// 27. 12. 2023. [Online]. Available: https://docs.opencv.org/4.9.0/d9/d0c/group__calib3d.html.
Kaustubh S. Stereo Camera Depth Estimation With OpenCV (PythonC++)// 05. 04. 2021. [Online]. Available: https://learnopencv.com/depth-perception-using-stereo-camera-python-c.
Mancini M, Costante G., Valigi P., Ciarfuglia T. A. Fast Robust Monocular Depth Estimation for Obstacle Detection with Fully Convolutional Networks// 21. 07. 2016. [Online]. Available: https://arxiv.org/abs/1607.06349.
Ranftl R., Lasinger K., Hafner D., Schindler K., Koltun V. Towards Robust Monocular Depth Estimation: Mixing Datasets for Zero-shot Cross-dataset Transfer//Computer Vision and Pattern Recognition (cs.CV), 2020. [Online]. Available: https://arxiv.org/abs/1907.01341.
Yang L., Kang B., Huang Z., Xu X., Feng J., Zhao H. Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data// 07. 04. 2024. [Online]. Available: https://arxiv.org/abs/2401.10891. [Дата звернення: 08 05 2024].
Musleh B., De la Escalera A., Armingol J. U-V Disparity Analysis in Urban Environments// Computer Aided Systems Theory. – EUROCAST 2011. EUROCAST 2011. Lecture Notes in Computer Science, vol 6928, Springer, Berlin, Heidelberg, 2011.
Otsu N. A Threshold Selection Method from Gray-Level Histograms// IEEE Trans. Syst. Man Cybern.-V. 9, pp. 62-66, 1979.
Yuan J., Jiang T., He X., Wu S., Liu J., Guo D. Dynamic obstacle detection method based on U–V disparity and residual optical flow for autonomous driving//10. 05. 2023. [Online]. Available: https://doi.org/10.1038/s41598-023-34777-6.
Canny J. A computational approach to edge detection,» IEEE Transactions on Pattern Analysis and Machine Intelligence, т. 8, № 6, p. 679–698, 1986.
Xu L., Oja E., Kultanen P. A new curve detection method: Randomized Hough transform (RHT)// Pattern Recognition Letters .-Volume 11, № Issue 5, pp. 331-338, 1990.
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:
1. Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії CC BY-NC-ND , котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
2. Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
3. Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису роботи, як до подання цього рукопису до редакції, так і під час його редакційного опрацювання, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи (див. The Effect of Open Access).