Optical glyphs based localization and identification system
Abstract
Optical glyphs are non-complex graphic signs that contain encoded information. By utilizing techniques of image processing and pattern recognition, it is possible to implement an effective global system for autonomous vehicle navigation. The simplicity of the system allows it to be easily implemented, without having to rebuild monitoring equipment. It also provides the possibility to use, during the design process, of widely available open source software. This paper presents an algorithm, whose task is to find the symbols of objects contained in the database and determine their position and orientation in the global coordinate system of the camera. The speed and reliability of the system has been demonstrated on the basis of experimental studies using real mobile robots.
Keywords
camera-based tracking, image processing, mobile robot navigation, optical glyphs, pattern recognition
System lokalizacji i identyfikacji oparty na glifach optycznych
Streszczenie
Glify optyczne są nieskomplikowanymi znakami graficznymi zawierającymi zakodowaną informację. Dzięki wykorzystaniu technik przetwarzania obrazu i rozpoznawania wzorców możliwa jest implementacja skutecznego systemu globalnego wspomagającego nawigację autonomicznych pojazdów. Prostota systemu pozwala na łatwe jego wdrożenie, bez konieczności przebudowy aparatury monitorującej. Zapewnia również możliwość skorzystania w procesie projektowania z powszechnie dostępnego oprogramowania open source. W artykule przedstawiono algorytm, którego zadaniem jest wyszukanie wprowadzonych do bazy symboli obiektów oraz ustalenie ich pozycji i orientacji w globalnym układzie współrzędnych kamery. Szybkość i niezawodność systemu wykazano na podstawie badań eksperymentalnych z użyciem rzeczywistych robotów mobilnych.
Słowa kluczowe
glify optyczne, nawigacja robotów mobilnych, przetwarzanie obrazu, rozpoznawanie wzorców, śledzenie kamerą
Bibliografia
- Banu S. M., Augmented Reality system based on sketches for geometry education, International Conference on e-Learning and e-Technologies in Education (ICEEE), 2012, 166-170.
- Borenstein J., Everett H. R., Feng L., Where am I? Sensors and Methods for Mobile Robot Positioning, The University of Michigan, Ann Arbor 1996.
- Bosnak M., Matko D., Blazic S., Quadrocopter Hovering Using Position-estimation Information from Inertial Sensors and a High-delay Video System, “Journal of Intelligent and Robotic Systems”, Vol. 67, 1/2012, 43-60.
- Di Stefano L., Bulgarelli A., A simple and efficient connected components labeling algorithm, Proceedings of the International Conference on Image Analysis and Processing, 322-327, 1999.
- Loaiza M., Raposo A., Gattass M., A Novel Optical Tracking Algorithm for Point-Based Projective Invariant Marker Patterns, [in:] Bebis G. et al., Advances in Visual Computing, Springer, Berlin Heidelberg 2007, 160-169.
- Jallouli M., Amouri L., Derbel N., An Effective Localization Method for Robot Navigation through Combined Encoders Positioning and Retiming Visual Control, “Journal of Automation, Mobile Robotics and Intelligent Systems”, Vol. 3, 2/2009, 15-23.
- Oberkampf D., DeMenthon D. F., Davis L. S., Iterative pose estimation using coplanar points, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 1993, 626-627.
- Otsu N., A Threshold Selection Method from Gray-Level Histograms, IEEE Transactions on Systems, Man and Cybernetics, Vol. 9, 1/1979, 62-66.
- Pallos T., Sziebig G., Korondi P., Solvang B., Multiple-camera optical glyph tracking, “Advanced Materials Research”, Vol. 222, 2011, 367-371.
- Pałkowski A., Use of swarm intelligence methods in mobile robot navigation [in Polish: Wykorzystanie metod inteligencji rojowej w nawigacji robotów mobilnych], MSc thesis, Gdańsk University of Technology, Gdańsk, 2012.
- [www.aforgenet.com] - AForge.NET Framework (01.11.2012).