Визуальная одометрия
Визуальная одометрия — метод оценки положения и ориентации робота или иного устройства с помощью анализа последовательности изображений, снятых установленной на нем камерой (или камерами).[1]
Методы визуальной одометрии используются, например в компьютерных оптических мышах. Также используются в квадрокоптерах и на марсоходах Mars Exploration Rover[2].
В робототехнике и компьютерном зрении визуальная одометрия — это процесс определения положения и ориентации робота путем анализа связанных изображений камеры. Он использовался в широком спектре роботизированных приложений, например, на марсоходах Mars Exploration Rover.
В навигации одометрия обычно связана с использованием данных о движении приводов (к примеру от датчиков вращения) для оценки изменения положения в пространстве. Этот метод имеет свои минусы, из-за проскальзывания и неточностях при движении по неровным поверхностям, а также неприменим в роботах с нестандартными методами передвижения, к примеру в шагающих.
Визуальная одометрия подходит для точной навигации использующих любой тип передвижения на твёрдой поверхности.
Алгоритм
Большинство существующих подходов к визуальной одометрии основаны на следующих этапах.
- Получение входного изображения
- Коррекция изображения
- использование методов обработки изображений для устранения искажений объектива и пр.
- Обнаружение и отслеживание характерных признаков в разных кадрах
- Сопоставление изображений
- Выделение признаков
- построение поля оптического потока (обычно по алгоритму Лукаса — Канаде)
- Выявление выбивающихся значений векторов поля оптического потока и их коррекция[8]
- Оценка движения камеры по скорректированному оптическому потоку[9][10][11][12]
- Использование фильтра Калмана или минимизация функции потерь иным методом
Методика прямой визуальной одометрии выполняет вышеуказанные операции непосредственно в датчике.[5][13][14]
Визиодометрия оценивает плоские вращательные перемещения между изображениями с использованием фазовой корреляции вместо извлечения признаков.[15][16]
См. также
Примечания
- Визуальная одометрия
- Maimone, M.; Cheng, Y.; Matthies, L. (2007). “Two years of Visual Odometry on the Mars Exploration Rovers” (PDF). Journal of Field Robotics. 24 (3): 169—186. CiteSeerX 10.1.1.104.3110. DOI:10.1002/rob.20184. Дата обращения 2008-07-10.
- Chhaniyara, Savan (2008). «Visual Odometry Technique Using Circular Marker Identification For Motion Parameter Estimation» in The Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines. 11, World Scientific, 2008.
- (Jan 2004) «Visual Odometry» in Computer Vision and Pattern Recognition, 2004. CVPR 2004.. 1: I–652 – I–659 Vol.1. DOI:10.1109/CVPR.2004.1315094.
- Comport, A.I.; Malis, E.; Rives, P. (2010). F. Chaumette; P. Corke; P. Newman, eds. “Real-time Quadrifocal Visual Odometry”. International Journal of Robotics Research. 29 (2—3): 245—266. CiteSeerX 10.1.1.720.3113. DOI:10.1177/0278364909356601. Неизвестный параметр
|s2cid=
(справка) - Scaramuzza, D.; Siegwart, R. (October 2008). “Appearance-Guided Monocular Omnidirectional Visual Odometry for Outdoor Ground Vehicles”. IEEE Transactions on Robotics. 24 (5): 1015—1026. DOI:10.1109/TRO.2008.2004490. HDL:20.500.11850/14362. Неизвестный параметр
|s2cid=
(справка) - Corke, P.. «Omnidirectional visual odometry for a planetary rover». 4. DOI:10.1109/IROS.2004.1390041.
- Campbell, J.. «Techniques for evaluating optical flow for visual odometry in extreme terrain». 4. DOI:10.1109/IROS.2004.1389991.
- Sunderhauf, N. Visual odometry using sparse bundle adjustment on an autonomous outdoor vehicle // Tagungsband Autonome Mobile Systeme 2005 / Sunderhauf, N., Konolige, K., Lacroix, S. … [и др.]. — Springer Verlag, 2005. — P. 157–163. Архивная копия от 11 февраля 2009 на Wayback Machine
- Konolige, K.; Agrawal, M.; Bolles, R.C.; Cowan, C.; Fischler, M.; Gerkey, B.P. (2006). “Outdoor mapping and navigation using stereo vision”. Proc. Of the Intl. Symp. On Experimental Robotics (ISER). Springer Tracts in Advanced Robotics. 39: 179—190. DOI:10.1007/978-3-540-77457-0_17. ISBN 978-3-540-77456-3.
- Olson, C.F.; Matthies, L.; Schoppers, M.; Maimone, M.W. (2002). “Rover navigation using stereo ego-motion” (PDF). Robotics and Autonomous Systems. 43 (4): 215—229. DOI:10.1016/s0921-8890(03)00004-6. Дата обращения 2010-06-06.
- Cheng, Y.; Maimone, M.W.; Matthies, L. (2006). “Visual Odometry on the Mars Exploration Rovers”. IEEE Robotics and Automation Magazine. 13 (2): 54—62. CiteSeerX 10.1.1.297.4693. DOI:10.1109/MRA.2006.1638016. Неизвестный параметр
|s2cid=
(справка) - (2014) «LSD-SLAM: Large-Scale Direct Monocular SLAM» in European Conference on Computer Vision 2014. 8690. DOI:10.1007/978-3-319-10605-2_54.
- (2013) «Semi-Dense Visual Odometry for a Monocular Camera».. DOI:10.1109/ICCV.2013.183.
- Zaman, M. (2007). «High Precision Relative Localization Using a Single Camera».. DOI:10.1109/ROBOT.2007.364078.
- Zaman, M. (2007). “High resolution relative localisation using two cameras”. Journal of Robotics and Autonomous Systems (JRAS). 55 (9): 685—692. DOI:10.1016/j.robot.2007.05.008.