Визуальная одометрия

Визуальная одометрия — метод оценки положения и ориентации робота или иного устройства с помощью анализа последовательности изображений, снятых установленной на нем камерой (или камерами).[1]

Визуальная одометрия широко используется в коммерческих квадрокоптерах, которые обеспечивают локализацию в ситуациях, когда отсутствует GPS.

Методы визуальной одометрии используются, например в компьютерных оптических мышах. Также используются в квадрокоптерах и на марсоходах Mars Exploration Rover[2].

В робототехнике и компьютерном зрении визуальная одометрия — это процесс определения положения и ориентации робота путем анализа связанных изображений камеры. Он использовался в широком спектре роботизированных приложений, например, на марсоходах Mars Exploration Rover.

В навигации одометрия обычно связана с использованием данных о движении приводов (к примеру от датчиков вращения) для оценки изменения положения в пространстве. Этот метод имеет свои минусы, из-за проскальзывания и неточностях при движении по неровным поверхностям, а также неприменим в роботах с нестандартными методами передвижения, к примеру в шагающих.

Визуальная одометрия подходит для точной навигации использующих любой тип передвижения на твёрдой поверхности.

Алгоритм

Большинство существующих подходов к визуальной одометрии основаны на следующих этапах.

  1. Получение входного изображения
    • Существуют системы визуальной одометрии моно- (с одной камерой)[3][4] и стерео- (с двумя)[4][5] или панорамных (всенаправленных) камер.[6][7]
  2. Коррекция изображения
  3. Обнаружение и отслеживание характерных признаков в разных кадрах
  4. Выявление выбивающихся значений векторов поля оптического потока и их коррекция[8]
  5. Оценка движения камеры по скорректированному оптическому потоку[9][10][11][12]

Методика прямой визуальной одометрии выполняет вышеуказанные операции непосредственно в датчике.[5][13][14]

Визиодометрия оценивает плоские вращательные перемещения между изображениями с использованием фазовой корреляции вместо извлечения признаков.[15][16]

См. также

Примечания

  1. Визуальная одометрия
  2. Maimone, M.; Cheng, Y.; Matthies, L. (2007). “Two years of Visual Odometry on the Mars Exploration Rovers” (PDF). Journal of Field Robotics. 24 (3): 169—186. CiteSeerX 10.1.1.104.3110. DOI:10.1002/rob.20184. Дата обращения 2008-07-10.
  3. Chhaniyara, Savan (2008). «Visual Odometry Technique Using Circular Marker Identification For Motion Parameter Estimation» in The Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines. 11, World Scientific, 2008.
  4. (Jan 2004) «Visual Odometry» in Computer Vision and Pattern Recognition, 2004. CVPR 2004.. 1: I–652 – I–659 Vol.1. DOI:10.1109/CVPR.2004.1315094.
  5. Comport, A.I.; Malis, E.; Rives, P. (2010). F. Chaumette; P. Corke; P. Newman, eds. “Real-time Quadrifocal Visual Odometry”. International Journal of Robotics Research. 29 (2—3): 245—266. CiteSeerX 10.1.1.720.3113. DOI:10.1177/0278364909356601. Неизвестный параметр |s2cid= (справка)
  6. Scaramuzza, D.; Siegwart, R. (October 2008). “Appearance-Guided Monocular Omnidirectional Visual Odometry for Outdoor Ground Vehicles”. IEEE Transactions on Robotics. 24 (5): 1015—1026. DOI:10.1109/TRO.2008.2004490. HDL:20.500.11850/14362. Неизвестный параметр |s2cid= (справка)
  7. Corke, P.. «Omnidirectional visual odometry for a planetary rover». 4. DOI:10.1109/IROS.2004.1390041.
  8. Campbell, J.. «Techniques for evaluating optical flow for visual odometry in extreme terrain». 4. DOI:10.1109/IROS.2004.1389991.
  9. Sunderhauf, N. Visual odometry using sparse bundle adjustment on an autonomous outdoor vehicle // Tagungsband Autonome Mobile Systeme 2005 / Sunderhauf, N., Konolige, K., Lacroix, S. … [и др.]. — Springer Verlag, 2005. — P. 157–163. Архивная копия от 11 февраля 2009 на Wayback Machine
  10. Konolige, K.; Agrawal, M.; Bolles, R.C.; Cowan, C.; Fischler, M.; Gerkey, B.P. (2006). “Outdoor mapping and navigation using stereo vision”. Proc. Of the Intl. Symp. On Experimental Robotics (ISER). Springer Tracts in Advanced Robotics. 39: 179—190. DOI:10.1007/978-3-540-77457-0_17. ISBN 978-3-540-77456-3.
  11. Olson, C.F.; Matthies, L.; Schoppers, M.; Maimone, M.W. (2002). “Rover navigation using stereo ego-motion” (PDF). Robotics and Autonomous Systems. 43 (4): 215—229. DOI:10.1016/s0921-8890(03)00004-6. Дата обращения 2010-06-06.
  12. Cheng, Y.; Maimone, M.W.; Matthies, L. (2006). “Visual Odometry on the Mars Exploration Rovers”. IEEE Robotics and Automation Magazine. 13 (2): 54—62. CiteSeerX 10.1.1.297.4693. DOI:10.1109/MRA.2006.1638016. Неизвестный параметр |s2cid= (справка)
  13. (2014) «LSD-SLAM: Large-Scale Direct Monocular SLAM» in European Conference on Computer Vision 2014. 8690. DOI:10.1007/978-3-319-10605-2_54.
  14. (2013) «Semi-Dense Visual Odometry for a Monocular Camera».. DOI:10.1109/ICCV.2013.183.
  15. Zaman, M. (2007). «High Precision Relative Localization Using a Single Camera».. DOI:10.1109/ROBOT.2007.364078.
  16. Zaman, M. (2007). “High resolution relative localisation using two cameras”. Journal of Robotics and Autonomous Systems (JRAS). 55 (9): 685—692. DOI:10.1016/j.robot.2007.05.008.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.