Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores

Autores
De Cristóforis, Pablo Esteban
Año de publicación
2013
Idioma
inglés
Tipo de recurso
tesis doctoral
Estado
versión publicada
Colaborador/a o director/a de tesis
Mejail, Marta Estela
Descripción
Uno de los desafíos actuales de la robótica móvil es alcanzar el mayor grado de autonomía, es decir, lograr que un robot desarrolle sus tareas sin la necesidad de un operador humano. El objetivo principal de este trabajo es el desarrollo de un nuevo sistema de navegación autónomo basado en visión para robot móviles en entornos interiores/exteriores. El sistema propuesto utiliza sólo una cámara y sensores de odometría, no depende de ningún sistema de localización externo o infraestructura similar. Además, es capaz de tratar con variaciones en el ambiente (por ejemplo, cambios de iluminación o estaciones del año) y satisface las restricciones para guiar al robot en tiempo real. Para alcanzar el objetivo de este trabajo, se propone un enfoque híbrido que hace uso de dos técnicas de navegación visual: una basada en segmentación de imágenes y otra basada en marcas visuales. Para representar el ambiente se construye un mapa topológico que puede ser interpretado como un grafo, donde las aristas corresponden a caminos navegables y los nodos a espacios abiertos. Para recorrer los caminos (aristas) se desarrolló un método original basado en segmentación y para navegar por los espacios abiertos (nodos) se realizó una mejora y adaptación de un método basado en marcas visuales. Se evaluaron diversos algoritmos de extracción de características distintivas de las imágenes para determinar cuál representa la mejor solución para el caso de la navegación basada en marcas visuales, en términos de performance y repetibilidad. El sistema desarrollado es robusto y no requiere de la calibración de los sensores. La convergencia del método de navegación se ha demostrado tanto desde el punto de vista teórico como práctico. Su complejidad computacional es independiente del tamaño del entorno. Para validar el método realizamos experiencias tanto con sets de datos como con el robot móvil ExaBot, que se presenta como parte de este trabajo. Los resultados obtenidos demuestran la viabilidad del enfoque híbrido para abordar el problema de la navegación basa en visión en entornos complejos interiores/exteriores.
One of the current challenges of mobile robotics is to achieve complete autonomy, i.e. to develop a robot that can carry out its tasks without the need of a human operator. The main goal of this work is to develop a new vision-based mobile robot system for autonomous navigation in indoor/outdoor environments. The proposed system uses only a camera and odometry sensors, it does not rely on any external localization system or other similar infrastructure. Moreover, it can deal with real environmental changing conditions (illumination, seasons) and satisfies motion control constraints to guide the robot in real time. To achieve the goal of this work, a hybrid method is proposed that uses both segmentation-based and landmark-base navigation techniques. To represent the environment, a topological map is built. This map can be interpreted as a graph, where the edges represent navigable paths and the nodes open areas. A novel segmentation-based navigation method is presented to follow paths (edges) and a modifed landmark-based navigation method is used to traverse open areas (nodes). A variety of image features extraction algorithms were evaluated to conclude which one is the best solution for landmark-based navigation in terms of performance and repeatability. The developed system is robust and does not require sensor calibration. The convergence of the navigation method was proved from theoretical and practical viewpoints. Its computational complexity is independent of the environment size. To validate the method we perform experiments both with data sets and with the mobile robot ExaBot, which is presented as part of this work. The results demonstrate the feasibility of the hybrid approach to address the problem of vision based navigation in indoor/outdoor environments.
Fil: De Cristóforis, Pablo Esteban. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.
Materia
ROBOTS MOVILES
NAVEGACION AUTONOMA BASADA EN VISION
SEGMENTACION DE IMAGENES
CARACTERISTICAS DE IMAGENES
MOBILE ROBOTS
AUTONOMOUS VISION-BASED NAVIGATION
IMAGE SEGMENTATION
IMAGE FEATURES
Nivel de accesibilidad
acceso abierto
Condiciones de uso
https://creativecommons.org/licenses/by-nc-sa/2.5/ar
Repositorio
Biblioteca Digital (UBA-FCEN)
Institución
Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
OAI Identificador
tesis:tesis_n5398_DeCristoforis

id BDUBAFCEN_d59cb1325d649b9f6e6fa77e71bf0bb2
oai_identifier_str tesis:tesis_n5398_DeCristoforis
network_acronym_str BDUBAFCEN
repository_id_str 1896
network_name_str Biblioteca Digital (UBA-FCEN)
spelling Sistema de navegación monocular para robots móviles en ambientes interiores/exterioresVision-based mobile robot system for monocular navigation in indoor/outdoor environmentsDe Cristóforis, Pablo EstebanROBOTS MOVILESNAVEGACION AUTONOMA BASADA EN VISIONSEGMENTACION DE IMAGENESCARACTERISTICAS DE IMAGENESMOBILE ROBOTSAUTONOMOUS VISION-BASED NAVIGATIONIMAGE SEGMENTATIONIMAGE FEATURESUno de los desafíos actuales de la robótica móvil es alcanzar el mayor grado de autonomía, es decir, lograr que un robot desarrolle sus tareas sin la necesidad de un operador humano. El objetivo principal de este trabajo es el desarrollo de un nuevo sistema de navegación autónomo basado en visión para robot móviles en entornos interiores/exteriores. El sistema propuesto utiliza sólo una cámara y sensores de odometría, no depende de ningún sistema de localización externo o infraestructura similar. Además, es capaz de tratar con variaciones en el ambiente (por ejemplo, cambios de iluminación o estaciones del año) y satisface las restricciones para guiar al robot en tiempo real. Para alcanzar el objetivo de este trabajo, se propone un enfoque híbrido que hace uso de dos técnicas de navegación visual: una basada en segmentación de imágenes y otra basada en marcas visuales. Para representar el ambiente se construye un mapa topológico que puede ser interpretado como un grafo, donde las aristas corresponden a caminos navegables y los nodos a espacios abiertos. Para recorrer los caminos (aristas) se desarrolló un método original basado en segmentación y para navegar por los espacios abiertos (nodos) se realizó una mejora y adaptación de un método basado en marcas visuales. Se evaluaron diversos algoritmos de extracción de características distintivas de las imágenes para determinar cuál representa la mejor solución para el caso de la navegación basada en marcas visuales, en términos de performance y repetibilidad. El sistema desarrollado es robusto y no requiere de la calibración de los sensores. La convergencia del método de navegación se ha demostrado tanto desde el punto de vista teórico como práctico. Su complejidad computacional es independiente del tamaño del entorno. Para validar el método realizamos experiencias tanto con sets de datos como con el robot móvil ExaBot, que se presenta como parte de este trabajo. Los resultados obtenidos demuestran la viabilidad del enfoque híbrido para abordar el problema de la navegación basa en visión en entornos complejos interiores/exteriores.One of the current challenges of mobile robotics is to achieve complete autonomy, i.e. to develop a robot that can carry out its tasks without the need of a human operator. The main goal of this work is to develop a new vision-based mobile robot system for autonomous navigation in indoor/outdoor environments. The proposed system uses only a camera and odometry sensors, it does not rely on any external localization system or other similar infrastructure. Moreover, it can deal with real environmental changing conditions (illumination, seasons) and satisfies motion control constraints to guide the robot in real time. To achieve the goal of this work, a hybrid method is proposed that uses both segmentation-based and landmark-base navigation techniques. To represent the environment, a topological map is built. This map can be interpreted as a graph, where the edges represent navigable paths and the nodes open areas. A novel segmentation-based navigation method is presented to follow paths (edges) and a modifed landmark-based navigation method is used to traverse open areas (nodes). A variety of image features extraction algorithms were evaluated to conclude which one is the best solution for landmark-based navigation in terms of performance and repeatability. The developed system is robust and does not require sensor calibration. The convergence of the navigation method was proved from theoretical and practical viewpoints. Its computational complexity is independent of the environment size. To validate the method we perform experiments both with data sets and with the mobile robot ExaBot, which is presented as part of this work. The results demonstrate the feasibility of the hybrid approach to address the problem of vision based navigation in indoor/outdoor environments.Fil: De Cristóforis, Pablo Esteban. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.Universidad de Buenos Aires. Facultad de Ciencias Exactas y NaturalesMejail, Marta Estela2013info:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_db06info:ar-repo/semantics/tesisDoctoralapplication/pdfhttps://hdl.handle.net/20.500.12110/tesis_n5398_DeCristoforisenginfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc-sa/2.5/arreponame:Biblioteca Digital (UBA-FCEN)instname:Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturalesinstacron:UBA-FCEN2025-09-29T13:40:55Ztesis:tesis_n5398_DeCristoforisInstitucionalhttps://digital.bl.fcen.uba.ar/Universidad públicaNo correspondehttps://digital.bl.fcen.uba.ar/cgi-bin/oaiserver.cgiana@bl.fcen.uba.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:18962025-09-29 13:40:56.606Biblioteca Digital (UBA-FCEN) - Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturalesfalse
dc.title.none.fl_str_mv Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores
Vision-based mobile robot system for monocular navigation in indoor/outdoor environments
title Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores
spellingShingle Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores
De Cristóforis, Pablo Esteban
ROBOTS MOVILES
NAVEGACION AUTONOMA BASADA EN VISION
SEGMENTACION DE IMAGENES
CARACTERISTICAS DE IMAGENES
MOBILE ROBOTS
AUTONOMOUS VISION-BASED NAVIGATION
IMAGE SEGMENTATION
IMAGE FEATURES
title_short Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores
title_full Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores
title_fullStr Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores
title_full_unstemmed Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores
title_sort Sistema de navegación monocular para robots móviles en ambientes interiores/exteriores
dc.creator.none.fl_str_mv De Cristóforis, Pablo Esteban
author De Cristóforis, Pablo Esteban
author_facet De Cristóforis, Pablo Esteban
author_role author
dc.contributor.none.fl_str_mv Mejail, Marta Estela
dc.subject.none.fl_str_mv ROBOTS MOVILES
NAVEGACION AUTONOMA BASADA EN VISION
SEGMENTACION DE IMAGENES
CARACTERISTICAS DE IMAGENES
MOBILE ROBOTS
AUTONOMOUS VISION-BASED NAVIGATION
IMAGE SEGMENTATION
IMAGE FEATURES
topic ROBOTS MOVILES
NAVEGACION AUTONOMA BASADA EN VISION
SEGMENTACION DE IMAGENES
CARACTERISTICAS DE IMAGENES
MOBILE ROBOTS
AUTONOMOUS VISION-BASED NAVIGATION
IMAGE SEGMENTATION
IMAGE FEATURES
dc.description.none.fl_txt_mv Uno de los desafíos actuales de la robótica móvil es alcanzar el mayor grado de autonomía, es decir, lograr que un robot desarrolle sus tareas sin la necesidad de un operador humano. El objetivo principal de este trabajo es el desarrollo de un nuevo sistema de navegación autónomo basado en visión para robot móviles en entornos interiores/exteriores. El sistema propuesto utiliza sólo una cámara y sensores de odometría, no depende de ningún sistema de localización externo o infraestructura similar. Además, es capaz de tratar con variaciones en el ambiente (por ejemplo, cambios de iluminación o estaciones del año) y satisface las restricciones para guiar al robot en tiempo real. Para alcanzar el objetivo de este trabajo, se propone un enfoque híbrido que hace uso de dos técnicas de navegación visual: una basada en segmentación de imágenes y otra basada en marcas visuales. Para representar el ambiente se construye un mapa topológico que puede ser interpretado como un grafo, donde las aristas corresponden a caminos navegables y los nodos a espacios abiertos. Para recorrer los caminos (aristas) se desarrolló un método original basado en segmentación y para navegar por los espacios abiertos (nodos) se realizó una mejora y adaptación de un método basado en marcas visuales. Se evaluaron diversos algoritmos de extracción de características distintivas de las imágenes para determinar cuál representa la mejor solución para el caso de la navegación basada en marcas visuales, en términos de performance y repetibilidad. El sistema desarrollado es robusto y no requiere de la calibración de los sensores. La convergencia del método de navegación se ha demostrado tanto desde el punto de vista teórico como práctico. Su complejidad computacional es independiente del tamaño del entorno. Para validar el método realizamos experiencias tanto con sets de datos como con el robot móvil ExaBot, que se presenta como parte de este trabajo. Los resultados obtenidos demuestran la viabilidad del enfoque híbrido para abordar el problema de la navegación basa en visión en entornos complejos interiores/exteriores.
One of the current challenges of mobile robotics is to achieve complete autonomy, i.e. to develop a robot that can carry out its tasks without the need of a human operator. The main goal of this work is to develop a new vision-based mobile robot system for autonomous navigation in indoor/outdoor environments. The proposed system uses only a camera and odometry sensors, it does not rely on any external localization system or other similar infrastructure. Moreover, it can deal with real environmental changing conditions (illumination, seasons) and satisfies motion control constraints to guide the robot in real time. To achieve the goal of this work, a hybrid method is proposed that uses both segmentation-based and landmark-base navigation techniques. To represent the environment, a topological map is built. This map can be interpreted as a graph, where the edges represent navigable paths and the nodes open areas. A novel segmentation-based navigation method is presented to follow paths (edges) and a modifed landmark-based navigation method is used to traverse open areas (nodes). A variety of image features extraction algorithms were evaluated to conclude which one is the best solution for landmark-based navigation in terms of performance and repeatability. The developed system is robust and does not require sensor calibration. The convergence of the navigation method was proved from theoretical and practical viewpoints. Its computational complexity is independent of the environment size. To validate the method we perform experiments both with data sets and with the mobile robot ExaBot, which is presented as part of this work. The results demonstrate the feasibility of the hybrid approach to address the problem of vision based navigation in indoor/outdoor environments.
Fil: De Cristóforis, Pablo Esteban. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.
description Uno de los desafíos actuales de la robótica móvil es alcanzar el mayor grado de autonomía, es decir, lograr que un robot desarrolle sus tareas sin la necesidad de un operador humano. El objetivo principal de este trabajo es el desarrollo de un nuevo sistema de navegación autónomo basado en visión para robot móviles en entornos interiores/exteriores. El sistema propuesto utiliza sólo una cámara y sensores de odometría, no depende de ningún sistema de localización externo o infraestructura similar. Además, es capaz de tratar con variaciones en el ambiente (por ejemplo, cambios de iluminación o estaciones del año) y satisface las restricciones para guiar al robot en tiempo real. Para alcanzar el objetivo de este trabajo, se propone un enfoque híbrido que hace uso de dos técnicas de navegación visual: una basada en segmentación de imágenes y otra basada en marcas visuales. Para representar el ambiente se construye un mapa topológico que puede ser interpretado como un grafo, donde las aristas corresponden a caminos navegables y los nodos a espacios abiertos. Para recorrer los caminos (aristas) se desarrolló un método original basado en segmentación y para navegar por los espacios abiertos (nodos) se realizó una mejora y adaptación de un método basado en marcas visuales. Se evaluaron diversos algoritmos de extracción de características distintivas de las imágenes para determinar cuál representa la mejor solución para el caso de la navegación basada en marcas visuales, en términos de performance y repetibilidad. El sistema desarrollado es robusto y no requiere de la calibración de los sensores. La convergencia del método de navegación se ha demostrado tanto desde el punto de vista teórico como práctico. Su complejidad computacional es independiente del tamaño del entorno. Para validar el método realizamos experiencias tanto con sets de datos como con el robot móvil ExaBot, que se presenta como parte de este trabajo. Los resultados obtenidos demuestran la viabilidad del enfoque híbrido para abordar el problema de la navegación basa en visión en entornos complejos interiores/exteriores.
publishDate 2013
dc.date.none.fl_str_mv 2013
dc.type.none.fl_str_mv info:eu-repo/semantics/doctoralThesis
info:eu-repo/semantics/publishedVersion
http://purl.org/coar/resource_type/c_db06
info:ar-repo/semantics/tesisDoctoral
format doctoralThesis
status_str publishedVersion
dc.identifier.none.fl_str_mv https://hdl.handle.net/20.500.12110/tesis_n5398_DeCristoforis
url https://hdl.handle.net/20.500.12110/tesis_n5398_DeCristoforis
dc.language.none.fl_str_mv eng
language eng
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
https://creativecommons.org/licenses/by-nc-sa/2.5/ar
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by-nc-sa/2.5/ar
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales
publisher.none.fl_str_mv Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales
dc.source.none.fl_str_mv reponame:Biblioteca Digital (UBA-FCEN)
instname:Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
instacron:UBA-FCEN
reponame_str Biblioteca Digital (UBA-FCEN)
collection Biblioteca Digital (UBA-FCEN)
instname_str Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
instacron_str UBA-FCEN
institution UBA-FCEN
repository.name.fl_str_mv Biblioteca Digital (UBA-FCEN) - Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
repository.mail.fl_str_mv ana@bl.fcen.uba.ar
_version_ 1844618696677392384
score 13.070432