Specyfikacja wymagań dla systemu wizyjnej lokalizacji bezzałogowego statku powietrznego
Streszczenie
W artykule zaprezentowano specyfikację wymagań dla systemu lokalizacji wizyjnej wraz z jego architekturą, wydobywając kluczowe aspekty struktury, komponentów oraz kanałów komunikacyjnych. Omówiono zarówno ogólne założenia projektowe, jak i specyfikację wymagań technicznych, jakie postawiono przed poszczególnymi elementami systemu. Opisano kryteria jakościowe wymagań, jakie musi spełniać każde z nich, aby stanowiło ono wartość dla projektanta, kierownika czy samego zespołu wykonującego zadania związane z projektowaniem lub realizacją produktu. Funkcjonalność systemu zweryfikowano w warunkach laboratoryjnych za pomocą symulacji oraz podczas rzeczywistych lotów. Weryfikacja systemu potwierdziła jego zgodność z postawionymi wymaganiami. Osiągnięcie poziomu TRL 6 potwierdzono integracją wszystkich komponentów w prototypie oraz jego demonstracją w warunkach rzeczywistych, gdzie system spełnił wymagania dokładności lokalizacji (≤3 % AGL) i częstotliwości generowania danych (10 Hz ±0,5 Hz). Prezentowana technologia jest szczególnie przydatna w środowiskach, gdzie sygnały GNSS są zakłócane lub niedostępne, zapewniając niezawodność nawigacji. Wyniki pracy stanowią istotny wkład w rozwój technologii nawigacji wizyjnej i mogą być podstawą dla dalszych badań i wdrożeń.
Słowa kluczowe
BSP, lokalizacja wizyjna, nawigacja, redundancja GNSS, specyfikacja wymagań
Requirements Specification for Visual Localization System of Unmanned Aircraft
Abstract
The article presents a specification of requirements for a visual localization system along with its architecture, highlighting the key aspects of its structure, components, and communication channels. Both general design assumptions and the technical requirements imposed on individual system elements are discussed. The paper also describes the quality criteria that each requirement must meet in order to provide value to the designer, project manager, or the team responsible for system design and implementation. The functionality of the system was verified under laboratory conditions through simulations and during real flight tests. The verification confirmed that the system meets the defined requirements. The achievement of TRL 6 was confirmed by the integration of all components into a prototype and its demonstration under real-world conditions, where the system fulfilled localization accuracy requirements (≤ 3 % AGL) and data generation frequency (10 Hz ±0.5 Hz). The presented technology is particularly useful in environments where GNSS signals are disrupted or unavailable, ensuring navigation reliability. The results represent a significant contribution to the development of visual navigation technology and can serve as a foundation for further research and implementation.
Keywords
GNSS redundancy, navigation, requirements specification, UAV, visual localization system
Bibliografia
- Borodacz K., Szczepański C., GNSS denied navigation system for the manoeuvring flying objects, “Aircraft Engineering and Aerospace Technology”, Vol. 96, No. 1, 2024, 63–72, DOI: 10.1108/AEAT-05-2023-0124.
- Arafat M.Y., Alam M.M., Moh S., Vision-Based Navigation Techniques for Unmanned Aerial Vehicles: Review and Challenges, “Drones”, Vol. 7, No. 2, 2023, DOI: 10.3390/drones7020089.
- Sui H., Li J., Lei J., Liu C., Gou G., A Fast and Robust Heterologous Image Matching Method for Visual Geo-Localization of Low-Altitude UAVs, “Remote Sensing”, Vol. 14, No. 22, 2022, DOI: 10.3390/rs14225879.
- Mao J., Zhang L., He X., Qu H., Hu X., A 2D Georeferenced Map Aided Visual-Inertial System for Precise UAV Localization, IEEE/RJS International Conference on Intelligent Robots and Systems, 2021, DOI: 10.1109/IROS47612.2022.9982254.
- Conte G., Doherty P., Vision-Based Unmanned Aerial Vehicle Navigation Using Geo-Referenced Information, “EURASIP Journal on Advances in Signal Processing”, 2009, DOI: 10.1155/2009/387308.
- Chiu H.-P., Das A., Miller P., Samarasekera S., Kumar R., Precise vision-aided aerial navigation, IEEE/RSJ International Conference on Intelligent Robots and Systems, 2014, 688–695, DOI: 10.1109/IROS.2014.6942633.
- Yol A., Delabarre B., Dame A., Dartois J.-E., Marchand E., Vision-based absolute localization for unmanned aerial vehicles, IEEE/RSJ International Conference on Intelligent Robots and Systems, 2014, 3429–3434, DOI: 10.1109/IROS.2014.6943040.
- Shan M., Wang F., Lin F., Gao Z., Tang Y.Z., Chen B.M., Google Map Aided Visual Navigation for UAVs in GPS-denied Environment, IEEE International Conference on Robotics and Biomimetics (ROBIO), 2015, DOI: 10.1109/ROBIO.2015.7418753.
- Nassar A., Amer K., ElHakim R., ElHelw M., A Deep CNN-Based Framework For Enhanced Aerial Imagery Registration with Applications to UAV Geolocalization, IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), 2018, 1594–1610, DOI: 10.1109/CVPRW.2018.00201.
- Mantelli M., Pittol D., Neuland R., Ribacki A., Maffei R., Jorge V., Prestes E., Kolberg M., A novel measurement model based on abBRIEF for global localization of a UAV over satellite images, “Robotics and Autonomous Systems”, Vol. 112, 2019, 304–319, DOI: 10.1016/j.robot.2018.12.006.
- Choi J., Myung H., BRM Localization: UAV Localization in GNSS-Denied Environments Based on Matching of Numerical Map and UAV Images, IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2020, DOI: 10.1109/IROS45743.2020.9341682.
- Patel B., Barfoot T.D., Schoellig A.P., Visual Localization with Google Earth Images for Robust Global Pose Estimation of UAVs, IEEE International Conference on Robotics and Automation (ICRA), 2020, 6491–6497, DOI: 10.1109/ICRA40945.2020.9196606.
- Mughal M.H., Khokhar M.J., Shahzad M., Assisting UAV Localization Via Deep Contextual Image Matching, “IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing”, Vol. 14, 2021, 2445–2457, DOI: 10.1109/JSTARS.2021.3054832.
- Bianchi M., Barfoot T.D., UAV Localization Using Autoencoded Satellite Images, “IEEE Robotics and Automation Letters”, Vol. 6, No. 2, 2021, 1761–1768, DOI: 10.1109/LRA.2021.3060397.
- Gurgu M.-M., Queralta J.P., Westerlund T., Vision-based GNSS-Free Localization for UAVs in the Wild, 7th International Conference on Mechanical Engineering and Robotics Research (ICMERR), 2022, DOI: 10.1109/ICMERR56497.2022.10097798.
- Silveira L., et al., Navigation Aids Based on Optical Flow and Convolutional Neural Network, 2022 Latin American Robotics Symposium (LARS), 2022 Brazilian Symposium on Robotics (SBR), and 2022 Workshop on Robotics in Education (WRE), São Bernardo do Campo, Brazil: IEEE, 318–323, DOI: 10.1109/LARS/SBR/WRE56824.2022.9995889.
- Glinz M., van Loenhoud H., Staal S., Bühne S., Handbook for the CPRE Foundation Level according to the IREB Standard, Karlsruhe 2020.
- Pietsch S., Riddell H., Semmler C., Ntoumanis N., Gucciardi D.F., SMART goals are no more effective for creative performance than do-your-best goals or non-specific, exploratory ‘open goals’, “Educational Psychology”, Vol. 44, No. 9–10, 2024, 946–962, DOI: 10.1080/01443410.2024.2420818.
- Pogorzelski T., Majek K., Onboard to Satellite Image Matching for Relocalization of the UAVs, Uniwersytet Morski w Gdyni, 2022, 122–125.
- Zielińska T., Pogorzelski T., Samolokalizacja bezzałogowego statku powietrznego uwzględniająca zmienną orientację kamery, “Pomiary Automatyka Robotyka”, R. 26, Nr 4, 2022, 53–59, DOI: 10.14313/PAR_246/53.
- Pogorzelski T., Zielińska T., Vision Based Navigation Securing the UAV Mission Reliability, Automation 2022: New Solutions and Technologies for Automation, Robotics and Measurement Techniques, Vol. 1427, 2022, 251–263, DOI: 10.1007/978-3-031-03502-9_26.
- Chrabski B., Zmitrowicz K., Inżynieria wymagań w praktyce, Wydawnictwo Naukowe PWN, Warszawa 2015.
- Slippy map, [https://wiki.openstreetmap.org/wiki/Slippy_map].
- Rublee E., Rabaud V., Konolige K., Bradski G., ORB: An efficient alternative to SIFT or SURF, International Conference on Computer Vision, 2011, 2564–2571, DOI: 10.1109/ICCV.2011.6126544.
- Bay H., Tuytelaars T., Van Gool L., SURF: Speeded Up Robust Features, Computer Vision – ECCV 2006, Vol. 3951, 2006, 404–417. DOI: 10.1007/11744023_32.
- Gupta M., Singh P., An Image Forensic Technique Based on SIFT Descriptors and FLANN Based Matching, 12th International Conference on Computing Communication and Networking Technologies (ICCCNT), 2021, DOI: 10.1109/ICCCNT51525.2021.9579701.
- Sarlin P.-E., DeTone D., Malisiewicz T., Rabinovich A., SuperGlue: Learning Feature Matching with Graph Neural Networks, Conference on Computer Vision and Pattern Recognition (CVPR), 2020, 4938–4947, DOI: 10.1109/CVPR42600.2020.00499.
- Sun J., Shen Z., Wang Y., Bao H., Zhou X., LoFTR: Detector-Free Local Feature Matching with Transformers, Conference on Computer Vision and Pattern Recognition (CVPR), 2021, DOI: 10.1109/CVPR46437.2021.00881.
