Визуальная одометрия
Визуальная одометрия — метод оценки положения и ориентации робота или иного устройства с помощью анализа последовательности изображений, снятых установленной на нем камерой (или камерами).[1]
Методы визуальной одометрии используются, например в компьютерных оптических мышах. Также используются в квадрокоптерах и на марсоходах Mars Exploration Rover[2].
В робототехнике и компьютерном зрении визуальная одометрия — это процесс определения положения и ориентации робота путем анализа связанных изображений камеры. Он использовался в широком спектре роботизированных приложений, например, на марсоходах Mars Exploration Rover.
В навигации одометрия обычно связана с использованием данных о движении приводов (к примеру от датчиков вращения) для оценки изменения положения в пространстве. Этот метод имеет свои минусы, из-за проскальзывания и неточностях при движении по неровным поверхностям, а также неприменим в роботах с нестандартными методами передвижения, к примеру в шагающих.
Визуальная одометрия подходит для точной навигации использующих любой тип передвижения на твёрдой поверхности.
АлгоритмПравить
Большинство существующих подходов к визуальной одометрии основаны на следующих этапах.
- Получение входного изображения
- Коррекция изображения
- использование методов обработки изображений для устранения искажений объектива и пр.
- Обнаружение и отслеживание характерных признаков в разных кадрах
- Сопоставление изображений[en]
- Выделение признаков
- построение поля оптического потока (обычно по алгоритму Лукаса — Канаде)
- Выявление выбивающихся значений векторов поля оптического потока и их коррекция[8]
- Оценка движения[en] камеры по скорректированному оптическому потоку[9][10][11][12]
- Использование фильтра Кальмана или минимизация функции потерь иным методом
Методика прямой визуальной одометрии выполняет вышеуказанные операции непосредственно в датчике.[5][13][14]
Визиодометрия оценивает плоские вращательные перемещения между изображениями с использованием фазовой корреляции вместо извлечения признаков.[15][16]
См. такжеПравить
ПримечанияПравить
- ↑ Визуальная одометрия (неопр.). Дата обращения: 2 мая 2012. Архивировано 7 мая 2012 года.
- ↑ Maimone, M.; Cheng, Y.; Matthies, L. (2007). “Two years of Visual Odometry on the Mars Exploration Rovers” (PDF). Journal of Field Robotics. 24 (3): 169—186. CiteSeerX 10.1.1.104.3110. DOI:10.1002/rob.20184. Архивировано (PDF) из оригинала 2014-03-30. Дата обращения 2008-07-10. Используется устаревший параметр
|deadlink=
(справка) - ↑ Chhaniyara, Savan; KASPAR ALTHOEFER; LAKMAL D. SENEVIRATNE (2008). “Visual Odometry Technique Using Circular Marker Identification For Motion Parameter Estimation”. Advances in Mobile Robotics: Proceedings of the Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines, Coimbra, Portugal. The Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines. 11. World Scientific, 2008. Архивировано из оригинала 2012-02-24. Дата обращения 2021-01-03. Используется устаревший параметр
|deadlink=
(справка) - ↑ 1 2 Nister, D; Naroditsky, O.; Bergen, J (Jan 2004). Visual Odometry. Computer Vision and Pattern Recognition, 2004. CVPR 2004. 1. pp. I–652 – I–659 Vol.1. DOI:10.1109/CVPR.2004.1315094.
- ↑ 1 2 Comport, A.I.; Malis, E.; Rives, P. (2010). F. Chaumette; P. Corke; P. Newman, eds. “Real-time Quadrifocal Visual Odometry”. International Journal of Robotics Research. 29 (2—3): 245—266. CiteSeerX 10.1.1.720.3113. DOI:10.1177/0278364909356601. S2CID 15139693.
- ↑ Scaramuzza, D.; Siegwart, R. (October 2008). “Appearance-Guided Monocular Omnidirectional Visual Odometry for Outdoor Ground Vehicles”. IEEE Transactions on Robotics. 24 (5): 1015—1026. DOI:10.1109/TRO.2008.2004490. HDL:20.500.11850/14362. S2CID 13894940.
- ↑ Corke, P.; Strelow, D.; Singh, S. “Omnidirectional visual odometry for a planetary rover”. Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on. 4. DOI:10.1109/IROS.2004.1390041.
- ↑ Campbell, J.; Sukthankar, R.; Nourbakhsh, I.; Pittsburgh, I.R. “Techniques for evaluating optical flow for visual odometry in extreme terrain”. Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on. 4. DOI:10.1109/IROS.2004.1389991.
- ↑ Sunderhauf, N. Visual odometry using sparse bundle adjustment on an autonomous outdoor vehicle // Tagungsband Autonome Mobile Systeme 2005 / Sunderhauf, N., Konolige, K., Lacroix, S. … [и др.]. — Springer Verlag, 2005. — P. 157–163. Архивная копия от 11 февраля 2009 на Wayback Machine
- ↑ Konolige, K.; Agrawal, M.; Bolles, R.C.; Cowan, C.; Fischler, M.; Gerkey, B.P. (2006). “Outdoor mapping and navigation using stereo vision”. Proc. Of the Intl. Symp. On Experimental Robotics (ISER). Springer Tracts in Advanced Robotics. 39: 179—190. DOI:10.1007/978-3-540-77457-0_17. ISBN 978-3-540-77456-3.
- ↑ Olson, C.F.; Matthies, L.; Schoppers, M.; Maimone, M.W. (2002). “Rover navigation using stereo ego-motion” (PDF). Robotics and Autonomous Systems. 43 (4): 215—229. DOI:10.1016/s0921-8890(03)00004-6. Архивировано (PDF) из оригинала 2016-03-03. Дата обращения 2010-06-06. Используется устаревший параметр
|deadlink=
(справка) - ↑ Cheng, Y.; Maimone, M.W.; Matthies, L. (2006). “Visual Odometry on the Mars Exploration Rovers”. IEEE Robotics and Automation Magazine. 13 (2): 54—62. CiteSeerX 10.1.1.297.4693. DOI:10.1109/MRA.2006.1638016. S2CID 15149330.
- ↑ Engel, Jakob; Schöps, Thomas; Cremers, Daniel (2014). “LSD-SLAM: Large-Scale Direct Monocular SLAM” (PDF). In Fleet D.; Pajdla T.; Schiele B.; Tuytelaars T. Computer Vision. European Conference on Computer Vision 2014. Lecture Notes in Computer Science. 8690. DOI:10.1007/978-3-319-10605-2_54. Архивировано из оригинала (PDF) 2014-10-22. Дата обращения 2021-01-03. Используется устаревший параметр
|deadlink=
(справка) - ↑ Engel, Jakob; Sturm, Jürgen; Cremers, Daniel (2013). “Semi-Dense Visual Odometry for a Monocular Camera” (PDF). IEEE International Conference on Computer Vision (ICCV). CiteSeerX 10.1.1.402.6918. DOI:10.1109/ICCV.2013.183. Архивировано из оригинала (PDF) 2014-05-20. Дата обращения 2021-01-03. Используется устаревший параметр
|deadlink=
(справка) - ↑ Zaman, M. (2007). “High Precision Relative Localization Using a Single Camera”. Robotics and Automation, 2007.(ICRA 2007). Proceedings. 2007 IEEE International Conference on. DOI:10.1109/ROBOT.2007.364078.
- ↑ Zaman, M. (2007). “High resolution relative localisation using two cameras”. Journal of Robotics and Autonomous Systems (JRAS). 55 (9): 685—692. DOI:10.1016/j.robot.2007.05.008.