Texturas dinámicas y segmentación

Autores
Rodríguez, Juan Manuel
Año de publicación
2012
Idioma
español castellano
Tipo de recurso
tesis de grado
Estado
versión publicada
Colaborador/a o director/a de tesis
Mejail, Marta Ester
Descripción
Las texturas dinámicas son secuencias de imágenes de escenas dinámicas que presentan propiedades de regularidad temporal en un sentido estadístico. Incluyen, por ejemplo, olas de mar, humo, torbellinos, fuego o follaje, pero también objetos en movimiento con una “forma definida”, como flores o banderas flameando. Este trabajo presenta una caracterización de este tipo de secuencias de vídeo y plantea los problemas de modelado, aprendizaje, síntesis, reconocimiento y segmentación. Dado que, en ausencia de conocimiento previo adicional, el problema de reconstrucción visual de imágenes es realmente complejo, no se intenta inferir el modelo físico que genera las imágenes. En su lugar se analizan las secuencias de las imágenes únicamente como señales visuales, mediante la construcción de un marco de trabajo estadístico que se basa en disciplinas como el análisis de series de tiempo. Se propone un modelo estadístico y se expone un método para aprender sus parámetros en el sentido de máxima verosimilitud o de varianza mínima del error de predicción. Se derivan procedimientos de inferencia eficientes en forma cerrada para el aprendizaje de estadísticas de segundo orden. Después de aprender un modelo, este puede ser utilizado para extrapolar o predecir nueva información de las imágenes, tanto en el dominio temporal como espacial. Se analiza el significado de los parámetros del modelo y se muestra cómo pueden ser manipulados para controlar o animar una simulación. Utilizando la geometría de los subespacios y la teoría de reconocimiento de patrones, se deriva una técnica para discriminar entre modelos y construir un sistema de reconocimiento. Adicionalmente, mediante la combinación de estos resultados con un marco variacional, se diseña un método de segmentación capaz de dividir una secuencia de video en regiones caracterizadas por diferentes estadísticas espacio-temporales. Una limitación significativa del modelo de texturas dinámicas es su incapacidad para proporcionar una percepción de descomposición en zonas, donde cada una pertenece a un proceso visual semánticamente diferente. Se observa que, mientras el modelo de texturas dinámicas es inapropiado para este tipo de escenas, el marco generador subyacente sí lo es. De hecho, texturas dinámicas superpuestas pueden ser tenidas en cuenta, aumentando el modelo probabil´ıstico con una variable “oculta” discreta que posea una serie de estados igual al n´umero de texturas y que codifique cuál de ellos es responsable de una determinada pieza espacio-temporal del volumen del video. De esta manera, el volumen de video se puede modelar como una simple textura dinámica, condicionado al estado de la variable oculta. Esto conduce a una extensión natural del modelo de texturas dinámicas, una mixtura de texturas dinámicas, o mixtura de sistemas dinámicos lineales, que es estudiada en este trabajo. La aplicación de una mixtura de texturas dinámicas a la segmentación requiere la descomposición del video en una colección de pequeños parches espacio temporales, que luego son agrupados. El carácter “local” de esta representación de video es problemática para la segmentación de texturas que son homogéneas globalmente, pero que exhiben una variación sustancial entre ubicaciones vecinas, tales como el movimiento de rotación del agua en un remolino. Además, las segmentaciones basadas en parches tienen una baja precisión en los límites, debido a las fronteras artificiales de los parches subyacentes, y la dificultad de asignar un parche que se superpone en varias regiones de cualquiera de ellos. Existe también otro modelo, el de capas de texturas dinámicas, que representa los videos como una colección de capas, ofreciendo un modelo verdaderamente “global” de la apariencia y la dinámica de cada capa y evita la incertidumbre en los límites. Este se logra, de manera similar a las mixturas de texturas dinámicas, agregando al modelo original de texturas dinámicas una variable “oculta” discreta que permite la asignación de diferentes comportamientos a diferentes regiones del vídeo. La variable oculta es modelada como un Campo Aleatorio de Markov para asegurar la suavidad espacial de las regiones. Condicionada por el estado de esta variable oculta, cada región del video no es más que una textura dinámica. Con la introducción de una representación dinámica compartida para todos los píxeles de una región, el nuevo modelo es una representación en capas. Además de la introducción de los modelos de mixturas de texturas dinámicas y capas de texturas dinámicas como modelos generativos de video, se derivan los algoritmos de expectation-maximization (EM) para la estimación de máxima verosimilitud de los parámetros de ambos. Se demuestra, asimismo, la aplicabilidad y los inconvenientes que presentan los modelos para la solución de problemas de visión tradicionalmente difíciles, que van desde la agrupación de secuencias de tráfico automovilístico hasta la segmentación de secuencias que contienen múltiples texturas dinámicas.
Fil: Rodríguez, Juan Manuel. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.
Nivel de accesibilidad
acceso abierto
Condiciones de uso
https://creativecommons.org/licenses/by-nc-sa/2.5/ar
Repositorio
Biblioteca Digital (UBA-FCEN)
Institución
Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
OAI Identificador
seminario:seminario_nCOM000744_Rodriguez

id BDUBAFCEN_1425c7e07b99051b0d272be314bef773
oai_identifier_str seminario:seminario_nCOM000744_Rodriguez
network_acronym_str BDUBAFCEN
repository_id_str 1896
network_name_str Biblioteca Digital (UBA-FCEN)
spelling Texturas dinámicas y segmentaciónRodríguez, Juan ManuelLas texturas dinámicas son secuencias de imágenes de escenas dinámicas que presentan propiedades de regularidad temporal en un sentido estadístico. Incluyen, por ejemplo, olas de mar, humo, torbellinos, fuego o follaje, pero también objetos en movimiento con una “forma definida”, como flores o banderas flameando. Este trabajo presenta una caracterización de este tipo de secuencias de vídeo y plantea los problemas de modelado, aprendizaje, síntesis, reconocimiento y segmentación. Dado que, en ausencia de conocimiento previo adicional, el problema de reconstrucción visual de imágenes es realmente complejo, no se intenta inferir el modelo físico que genera las imágenes. En su lugar se analizan las secuencias de las imágenes únicamente como señales visuales, mediante la construcción de un marco de trabajo estadístico que se basa en disciplinas como el análisis de series de tiempo. Se propone un modelo estadístico y se expone un método para aprender sus parámetros en el sentido de máxima verosimilitud o de varianza mínima del error de predicción. Se derivan procedimientos de inferencia eficientes en forma cerrada para el aprendizaje de estadísticas de segundo orden. Después de aprender un modelo, este puede ser utilizado para extrapolar o predecir nueva información de las imágenes, tanto en el dominio temporal como espacial. Se analiza el significado de los parámetros del modelo y se muestra cómo pueden ser manipulados para controlar o animar una simulación. Utilizando la geometría de los subespacios y la teoría de reconocimiento de patrones, se deriva una técnica para discriminar entre modelos y construir un sistema de reconocimiento. Adicionalmente, mediante la combinación de estos resultados con un marco variacional, se diseña un método de segmentación capaz de dividir una secuencia de video en regiones caracterizadas por diferentes estadísticas espacio-temporales. Una limitación significativa del modelo de texturas dinámicas es su incapacidad para proporcionar una percepción de descomposición en zonas, donde cada una pertenece a un proceso visual semánticamente diferente. Se observa que, mientras el modelo de texturas dinámicas es inapropiado para este tipo de escenas, el marco generador subyacente sí lo es. De hecho, texturas dinámicas superpuestas pueden ser tenidas en cuenta, aumentando el modelo probabil´ıstico con una variable “oculta” discreta que posea una serie de estados igual al n´umero de texturas y que codifique cuál de ellos es responsable de una determinada pieza espacio-temporal del volumen del video. De esta manera, el volumen de video se puede modelar como una simple textura dinámica, condicionado al estado de la variable oculta. Esto conduce a una extensión natural del modelo de texturas dinámicas, una mixtura de texturas dinámicas, o mixtura de sistemas dinámicos lineales, que es estudiada en este trabajo. La aplicación de una mixtura de texturas dinámicas a la segmentación requiere la descomposición del video en una colección de pequeños parches espacio temporales, que luego son agrupados. El carácter “local” de esta representación de video es problemática para la segmentación de texturas que son homogéneas globalmente, pero que exhiben una variación sustancial entre ubicaciones vecinas, tales como el movimiento de rotación del agua en un remolino. Además, las segmentaciones basadas en parches tienen una baja precisión en los límites, debido a las fronteras artificiales de los parches subyacentes, y la dificultad de asignar un parche que se superpone en varias regiones de cualquiera de ellos. Existe también otro modelo, el de capas de texturas dinámicas, que representa los videos como una colección de capas, ofreciendo un modelo verdaderamente “global” de la apariencia y la dinámica de cada capa y evita la incertidumbre en los límites. Este se logra, de manera similar a las mixturas de texturas dinámicas, agregando al modelo original de texturas dinámicas una variable “oculta” discreta que permite la asignación de diferentes comportamientos a diferentes regiones del vídeo. La variable oculta es modelada como un Campo Aleatorio de Markov para asegurar la suavidad espacial de las regiones. Condicionada por el estado de esta variable oculta, cada región del video no es más que una textura dinámica. Con la introducción de una representación dinámica compartida para todos los píxeles de una región, el nuevo modelo es una representación en capas. Además de la introducción de los modelos de mixturas de texturas dinámicas y capas de texturas dinámicas como modelos generativos de video, se derivan los algoritmos de expectation-maximization (EM) para la estimación de máxima verosimilitud de los parámetros de ambos. Se demuestra, asimismo, la aplicabilidad y los inconvenientes que presentan los modelos para la solución de problemas de visión tradicionalmente difíciles, que van desde la agrupación de secuencias de tráfico automovilístico hasta la segmentación de secuencias que contienen múltiples texturas dinámicas.Fil: Rodríguez, Juan Manuel. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.Universidad de Buenos Aires. Facultad de Ciencias Exactas y NaturalesMejail, Marta Ester2012info:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_7a1finfo:ar-repo/semantics/tesisDeGradoapplication/pdfhttps://hdl.handle.net/20.500.12110/seminario_nCOM000744_Rodriguezspainfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc-sa/2.5/arreponame:Biblioteca Digital (UBA-FCEN)instname:Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturalesinstacron:UBA-FCEN2025-11-27T08:37:36Zseminario:seminario_nCOM000744_RodriguezInstitucionalhttps://digital.bl.fcen.uba.ar/Universidad públicaNo correspondehttps://digital.bl.fcen.uba.ar/cgi-bin/oaiserver.cgiana@bl.fcen.uba.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:18962025-11-27 08:37:37.636Biblioteca Digital (UBA-FCEN) - Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturalesfalse
dc.title.none.fl_str_mv Texturas dinámicas y segmentación
title Texturas dinámicas y segmentación
spellingShingle Texturas dinámicas y segmentación
Rodríguez, Juan Manuel
title_short Texturas dinámicas y segmentación
title_full Texturas dinámicas y segmentación
title_fullStr Texturas dinámicas y segmentación
title_full_unstemmed Texturas dinámicas y segmentación
title_sort Texturas dinámicas y segmentación
dc.creator.none.fl_str_mv Rodríguez, Juan Manuel
author Rodríguez, Juan Manuel
author_facet Rodríguez, Juan Manuel
author_role author
dc.contributor.none.fl_str_mv Mejail, Marta Ester
dc.description.none.fl_txt_mv Las texturas dinámicas son secuencias de imágenes de escenas dinámicas que presentan propiedades de regularidad temporal en un sentido estadístico. Incluyen, por ejemplo, olas de mar, humo, torbellinos, fuego o follaje, pero también objetos en movimiento con una “forma definida”, como flores o banderas flameando. Este trabajo presenta una caracterización de este tipo de secuencias de vídeo y plantea los problemas de modelado, aprendizaje, síntesis, reconocimiento y segmentación. Dado que, en ausencia de conocimiento previo adicional, el problema de reconstrucción visual de imágenes es realmente complejo, no se intenta inferir el modelo físico que genera las imágenes. En su lugar se analizan las secuencias de las imágenes únicamente como señales visuales, mediante la construcción de un marco de trabajo estadístico que se basa en disciplinas como el análisis de series de tiempo. Se propone un modelo estadístico y se expone un método para aprender sus parámetros en el sentido de máxima verosimilitud o de varianza mínima del error de predicción. Se derivan procedimientos de inferencia eficientes en forma cerrada para el aprendizaje de estadísticas de segundo orden. Después de aprender un modelo, este puede ser utilizado para extrapolar o predecir nueva información de las imágenes, tanto en el dominio temporal como espacial. Se analiza el significado de los parámetros del modelo y se muestra cómo pueden ser manipulados para controlar o animar una simulación. Utilizando la geometría de los subespacios y la teoría de reconocimiento de patrones, se deriva una técnica para discriminar entre modelos y construir un sistema de reconocimiento. Adicionalmente, mediante la combinación de estos resultados con un marco variacional, se diseña un método de segmentación capaz de dividir una secuencia de video en regiones caracterizadas por diferentes estadísticas espacio-temporales. Una limitación significativa del modelo de texturas dinámicas es su incapacidad para proporcionar una percepción de descomposición en zonas, donde cada una pertenece a un proceso visual semánticamente diferente. Se observa que, mientras el modelo de texturas dinámicas es inapropiado para este tipo de escenas, el marco generador subyacente sí lo es. De hecho, texturas dinámicas superpuestas pueden ser tenidas en cuenta, aumentando el modelo probabil´ıstico con una variable “oculta” discreta que posea una serie de estados igual al n´umero de texturas y que codifique cuál de ellos es responsable de una determinada pieza espacio-temporal del volumen del video. De esta manera, el volumen de video se puede modelar como una simple textura dinámica, condicionado al estado de la variable oculta. Esto conduce a una extensión natural del modelo de texturas dinámicas, una mixtura de texturas dinámicas, o mixtura de sistemas dinámicos lineales, que es estudiada en este trabajo. La aplicación de una mixtura de texturas dinámicas a la segmentación requiere la descomposición del video en una colección de pequeños parches espacio temporales, que luego son agrupados. El carácter “local” de esta representación de video es problemática para la segmentación de texturas que son homogéneas globalmente, pero que exhiben una variación sustancial entre ubicaciones vecinas, tales como el movimiento de rotación del agua en un remolino. Además, las segmentaciones basadas en parches tienen una baja precisión en los límites, debido a las fronteras artificiales de los parches subyacentes, y la dificultad de asignar un parche que se superpone en varias regiones de cualquiera de ellos. Existe también otro modelo, el de capas de texturas dinámicas, que representa los videos como una colección de capas, ofreciendo un modelo verdaderamente “global” de la apariencia y la dinámica de cada capa y evita la incertidumbre en los límites. Este se logra, de manera similar a las mixturas de texturas dinámicas, agregando al modelo original de texturas dinámicas una variable “oculta” discreta que permite la asignación de diferentes comportamientos a diferentes regiones del vídeo. La variable oculta es modelada como un Campo Aleatorio de Markov para asegurar la suavidad espacial de las regiones. Condicionada por el estado de esta variable oculta, cada región del video no es más que una textura dinámica. Con la introducción de una representación dinámica compartida para todos los píxeles de una región, el nuevo modelo es una representación en capas. Además de la introducción de los modelos de mixturas de texturas dinámicas y capas de texturas dinámicas como modelos generativos de video, se derivan los algoritmos de expectation-maximization (EM) para la estimación de máxima verosimilitud de los parámetros de ambos. Se demuestra, asimismo, la aplicabilidad y los inconvenientes que presentan los modelos para la solución de problemas de visión tradicionalmente difíciles, que van desde la agrupación de secuencias de tráfico automovilístico hasta la segmentación de secuencias que contienen múltiples texturas dinámicas.
Fil: Rodríguez, Juan Manuel. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.
description Las texturas dinámicas son secuencias de imágenes de escenas dinámicas que presentan propiedades de regularidad temporal en un sentido estadístico. Incluyen, por ejemplo, olas de mar, humo, torbellinos, fuego o follaje, pero también objetos en movimiento con una “forma definida”, como flores o banderas flameando. Este trabajo presenta una caracterización de este tipo de secuencias de vídeo y plantea los problemas de modelado, aprendizaje, síntesis, reconocimiento y segmentación. Dado que, en ausencia de conocimiento previo adicional, el problema de reconstrucción visual de imágenes es realmente complejo, no se intenta inferir el modelo físico que genera las imágenes. En su lugar se analizan las secuencias de las imágenes únicamente como señales visuales, mediante la construcción de un marco de trabajo estadístico que se basa en disciplinas como el análisis de series de tiempo. Se propone un modelo estadístico y se expone un método para aprender sus parámetros en el sentido de máxima verosimilitud o de varianza mínima del error de predicción. Se derivan procedimientos de inferencia eficientes en forma cerrada para el aprendizaje de estadísticas de segundo orden. Después de aprender un modelo, este puede ser utilizado para extrapolar o predecir nueva información de las imágenes, tanto en el dominio temporal como espacial. Se analiza el significado de los parámetros del modelo y se muestra cómo pueden ser manipulados para controlar o animar una simulación. Utilizando la geometría de los subespacios y la teoría de reconocimiento de patrones, se deriva una técnica para discriminar entre modelos y construir un sistema de reconocimiento. Adicionalmente, mediante la combinación de estos resultados con un marco variacional, se diseña un método de segmentación capaz de dividir una secuencia de video en regiones caracterizadas por diferentes estadísticas espacio-temporales. Una limitación significativa del modelo de texturas dinámicas es su incapacidad para proporcionar una percepción de descomposición en zonas, donde cada una pertenece a un proceso visual semánticamente diferente. Se observa que, mientras el modelo de texturas dinámicas es inapropiado para este tipo de escenas, el marco generador subyacente sí lo es. De hecho, texturas dinámicas superpuestas pueden ser tenidas en cuenta, aumentando el modelo probabil´ıstico con una variable “oculta” discreta que posea una serie de estados igual al n´umero de texturas y que codifique cuál de ellos es responsable de una determinada pieza espacio-temporal del volumen del video. De esta manera, el volumen de video se puede modelar como una simple textura dinámica, condicionado al estado de la variable oculta. Esto conduce a una extensión natural del modelo de texturas dinámicas, una mixtura de texturas dinámicas, o mixtura de sistemas dinámicos lineales, que es estudiada en este trabajo. La aplicación de una mixtura de texturas dinámicas a la segmentación requiere la descomposición del video en una colección de pequeños parches espacio temporales, que luego son agrupados. El carácter “local” de esta representación de video es problemática para la segmentación de texturas que son homogéneas globalmente, pero que exhiben una variación sustancial entre ubicaciones vecinas, tales como el movimiento de rotación del agua en un remolino. Además, las segmentaciones basadas en parches tienen una baja precisión en los límites, debido a las fronteras artificiales de los parches subyacentes, y la dificultad de asignar un parche que se superpone en varias regiones de cualquiera de ellos. Existe también otro modelo, el de capas de texturas dinámicas, que representa los videos como una colección de capas, ofreciendo un modelo verdaderamente “global” de la apariencia y la dinámica de cada capa y evita la incertidumbre en los límites. Este se logra, de manera similar a las mixturas de texturas dinámicas, agregando al modelo original de texturas dinámicas una variable “oculta” discreta que permite la asignación de diferentes comportamientos a diferentes regiones del vídeo. La variable oculta es modelada como un Campo Aleatorio de Markov para asegurar la suavidad espacial de las regiones. Condicionada por el estado de esta variable oculta, cada región del video no es más que una textura dinámica. Con la introducción de una representación dinámica compartida para todos los píxeles de una región, el nuevo modelo es una representación en capas. Además de la introducción de los modelos de mixturas de texturas dinámicas y capas de texturas dinámicas como modelos generativos de video, se derivan los algoritmos de expectation-maximization (EM) para la estimación de máxima verosimilitud de los parámetros de ambos. Se demuestra, asimismo, la aplicabilidad y los inconvenientes que presentan los modelos para la solución de problemas de visión tradicionalmente difíciles, que van desde la agrupación de secuencias de tráfico automovilístico hasta la segmentación de secuencias que contienen múltiples texturas dinámicas.
publishDate 2012
dc.date.none.fl_str_mv 2012
dc.type.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
info:eu-repo/semantics/publishedVersion
http://purl.org/coar/resource_type/c_7a1f
info:ar-repo/semantics/tesisDeGrado
format bachelorThesis
status_str publishedVersion
dc.identifier.none.fl_str_mv https://hdl.handle.net/20.500.12110/seminario_nCOM000744_Rodriguez
url https://hdl.handle.net/20.500.12110/seminario_nCOM000744_Rodriguez
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
https://creativecommons.org/licenses/by-nc-sa/2.5/ar
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by-nc-sa/2.5/ar
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales
publisher.none.fl_str_mv Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales
dc.source.none.fl_str_mv reponame:Biblioteca Digital (UBA-FCEN)
instname:Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
instacron:UBA-FCEN
reponame_str Biblioteca Digital (UBA-FCEN)
collection Biblioteca Digital (UBA-FCEN)
instname_str Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
instacron_str UBA-FCEN
institution UBA-FCEN
repository.name.fl_str_mv Biblioteca Digital (UBA-FCEN) - Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
repository.mail.fl_str_mv ana@bl.fcen.uba.ar
_version_ 1849948842588372992
score 13.011256