Información discriminativa en clasificadores basados en modelos ocultos de Markov

Autores
Tomassi, Diego Rodolfo
Año de publicación
2011
Idioma
inglés
Tipo de recurso
tesis doctoral
Estado
versión aceptada
Colaborador/a o director/a de tesis
Milone, Diego Humberto
Fraiman, Ricardo
Granitto, Pablo
Marchetti, Jacinto
Forzani, Liliana María
Descripción
Fil: Tomassi, Diego Rodolfo. Universidad Nacional del Litoral. Facultad de Ingeniería y Ciencias Hídricas; Argentina.
Hidden Markov models (HMM) are statistical models which can efficiently deal with sequential data. They provide a way to model complex dependencies between observed data by setting simple dependencies between latent variables: a Markov chain that is not available to the observer. When used in a classification setting, an HMM models the probability density function of the data from each class and label assignement is achieved using a plug-in Bayes classifier. This is a typical example of generative learning, which can be suboptimal when the data does not match the assumed distribution. In this thesis we study methods and algorithms to exploit discriminant information when using HMM to classify sequential data. In the first part, we deal with HMM defined on the wavelet transform of the input sequences. These are hierarchical Markovian structures that use hidden Markov trees as observation models for the wavelet coefficients, given the state of the underlying chain. We derive new training algorithms for these models, specifically targeted to achieve minimum classification error. In the second part of the thesis, we take a look back to HMM with mixtures of Gaussians as observation densities. We focus in scenarios of high-dimensional observed data and derive methods for dimension reduction of the feature space using the approach of statistical sufficiency, which aims to preserve class information in the reduced data. We derive new algorithms and use this framework to analyze information preservation attained by available methods of dimensionality reduction in HMM.
Los modelos ocultos de Markov (HMM) son modelos estadísticos usados frecuentemente con datos sequenciales. Proveen un medio eficaz para modelar dependencias complejas a través de dependencias sencillas entre variables latentes que forman una cadena de Markov. Cuando se usan en tareas de clasificación, un HMM modela la función de densidad de probabilidad de los datos de cada clase y la asignación de etiquetas se realiza usando una versión plug-in de la regla de decisión de Bayes. Esto es un ejemplo de aprendizaje generativo, que puede ser subóptimo cuando la distribución de los datos se aparta de la supuesta. En esta tesis se estudian métodos y algoritmos que tienen por objeto aprovechar información discriminante en la clasificación de datos secuenciales modelados con HMM. En la primera parte del trabajo abordamos problemas con HMM definidos sobre la transformada onditas de las secuencias de entrada. Se trata de HMM jerárquicos que usan árboles ocultos de Markov como modelo de observación para los coeficientes de la transforma. Proponemos nuevos algoritmos de entrenamiento para estos modelos, basados directamente en la minimización del error de clasificación como criterio de aprendizaje. En la segunda parte de la tesis revisitamos los HMM más comunes que usan mezclas de gaussianas como modelos de observación, pero nos enfocamos en escenarios de alta dimensionalidad. Derivamos métodos para reducir la dimensión del espacio de características sin perder información discriminante, usando para ello el enfoque de suficiencia estadística. Proponemos nuevos algoritmos y analizamos bajo este marco métodos existentes de reducción dimensional en HMM.
Consejo Nacional de Investigaciones Científicas y Técnicas
Materia
Hidden Markov models
Discriminative learning
Minimum classification error
Dimension reduction
Discriminant analysis
Modelos ocultos de Markov
Aprendizaje discriminativo
Error de clasificación mínimo
Reducción de dimensiones
Análisis discriminante
Nivel de accesibilidad
acceso embargado
Condiciones de uso
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
Repositorio
Biblioteca Virtual (UNL)
Institución
Universidad Nacional del Litoral
OAI Identificador
oai:https://bibliotecavirtual.unl.edu.ar:11185/1175

id UNLBT_336f3f1c5da6568752bc0eb512436567
oai_identifier_str oai:https://bibliotecavirtual.unl.edu.ar:11185/1175
network_acronym_str UNLBT
repository_id_str 2187
network_name_str Biblioteca Virtual (UNL)
spelling Información discriminativa en clasificadores basados en modelos ocultos de MarkovDiscriminative information in classifiers based on hidden Markov modelsTomassi, Diego RodolfoHidden Markov modelsDiscriminative learningMinimum classification errorDimension reductionDiscriminant analysisModelos ocultos de MarkovAprendizaje discriminativoError de clasificación mínimoReducción de dimensionesAnálisis discriminanteFil: Tomassi, Diego Rodolfo. Universidad Nacional del Litoral. Facultad de Ingeniería y Ciencias Hídricas; Argentina.Hidden Markov models (HMM) are statistical models which can efficiently deal with sequential data. They provide a way to model complex dependencies between observed data by setting simple dependencies between latent variables: a Markov chain that is not available to the observer. When used in a classification setting, an HMM models the probability density function of the data from each class and label assignement is achieved using a plug-in Bayes classifier. This is a typical example of generative learning, which can be suboptimal when the data does not match the assumed distribution. In this thesis we study methods and algorithms to exploit discriminant information when using HMM to classify sequential data. In the first part, we deal with HMM defined on the wavelet transform of the input sequences. These are hierarchical Markovian structures that use hidden Markov trees as observation models for the wavelet coefficients, given the state of the underlying chain. We derive new training algorithms for these models, specifically targeted to achieve minimum classification error. In the second part of the thesis, we take a look back to HMM with mixtures of Gaussians as observation densities. We focus in scenarios of high-dimensional observed data and derive methods for dimension reduction of the feature space using the approach of statistical sufficiency, which aims to preserve class information in the reduced data. We derive new algorithms and use this framework to analyze information preservation attained by available methods of dimensionality reduction in HMM.Los modelos ocultos de Markov (HMM) son modelos estadísticos usados frecuentemente con datos sequenciales. Proveen un medio eficaz para modelar dependencias complejas a través de dependencias sencillas entre variables latentes que forman una cadena de Markov. Cuando se usan en tareas de clasificación, un HMM modela la función de densidad de probabilidad de los datos de cada clase y la asignación de etiquetas se realiza usando una versión plug-in de la regla de decisión de Bayes. Esto es un ejemplo de aprendizaje generativo, que puede ser subóptimo cuando la distribución de los datos se aparta de la supuesta. En esta tesis se estudian métodos y algoritmos que tienen por objeto aprovechar información discriminante en la clasificación de datos secuenciales modelados con HMM. En la primera parte del trabajo abordamos problemas con HMM definidos sobre la transformada onditas de las secuencias de entrada. Se trata de HMM jerárquicos que usan árboles ocultos de Markov como modelo de observación para los coeficientes de la transforma. Proponemos nuevos algoritmos de entrenamiento para estos modelos, basados directamente en la minimización del error de clasificación como criterio de aprendizaje. En la segunda parte de la tesis revisitamos los HMM más comunes que usan mezclas de gaussianas como modelos de observación, pero nos enfocamos en escenarios de alta dimensionalidad. Derivamos métodos para reducir la dimensión del espacio de características sin perder información discriminante, usando para ello el enfoque de suficiencia estadística. Proponemos nuevos algoritmos y analizamos bajo este marco métodos existentes de reducción dimensional en HMM.Consejo Nacional de Investigaciones Científicas y TécnicasMilone, Diego HumbertoFraiman, RicardoGranitto, PabloMarchetti, JacintoForzani, Liliana Maríainfo:eu-repo/date/embargoEnd/2020-03-092011-03-09info:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/acceptedVersionSNRDhttp://purl.org/coar/resource_type/c_db06info:ar-repo/semantics/tesisDoctoralapplication/pdfhttp://hdl.handle.net/11185/1175engenginfo:eu-repo/semantics/embargoedAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://creativecommons.org/licenses/by-nc-nd/4.0/deed.esreponame:Biblioteca Virtual (UNL)instname:Universidad Nacional del Litoralinstacron:UNL2025-09-29T14:30:08Zoai:https://bibliotecavirtual.unl.edu.ar:11185/1175Institucionalhttp://bibliotecavirtual.unl.edu.ar/Universidad públicaNo correspondeajdeba@unl.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:21872025-09-29 14:30:08.91Biblioteca Virtual (UNL) - Universidad Nacional del Litoralfalse
dc.title.none.fl_str_mv Información discriminativa en clasificadores basados en modelos ocultos de Markov
Discriminative information in classifiers based on hidden Markov models
title Información discriminativa en clasificadores basados en modelos ocultos de Markov
spellingShingle Información discriminativa en clasificadores basados en modelos ocultos de Markov
Tomassi, Diego Rodolfo
Hidden Markov models
Discriminative learning
Minimum classification error
Dimension reduction
Discriminant analysis
Modelos ocultos de Markov
Aprendizaje discriminativo
Error de clasificación mínimo
Reducción de dimensiones
Análisis discriminante
title_short Información discriminativa en clasificadores basados en modelos ocultos de Markov
title_full Información discriminativa en clasificadores basados en modelos ocultos de Markov
title_fullStr Información discriminativa en clasificadores basados en modelos ocultos de Markov
title_full_unstemmed Información discriminativa en clasificadores basados en modelos ocultos de Markov
title_sort Información discriminativa en clasificadores basados en modelos ocultos de Markov
dc.creator.none.fl_str_mv Tomassi, Diego Rodolfo
author Tomassi, Diego Rodolfo
author_facet Tomassi, Diego Rodolfo
author_role author
dc.contributor.none.fl_str_mv Milone, Diego Humberto
Fraiman, Ricardo
Granitto, Pablo
Marchetti, Jacinto
Forzani, Liliana María
dc.subject.none.fl_str_mv Hidden Markov models
Discriminative learning
Minimum classification error
Dimension reduction
Discriminant analysis
Modelos ocultos de Markov
Aprendizaje discriminativo
Error de clasificación mínimo
Reducción de dimensiones
Análisis discriminante
topic Hidden Markov models
Discriminative learning
Minimum classification error
Dimension reduction
Discriminant analysis
Modelos ocultos de Markov
Aprendizaje discriminativo
Error de clasificación mínimo
Reducción de dimensiones
Análisis discriminante
dc.description.none.fl_txt_mv Fil: Tomassi, Diego Rodolfo. Universidad Nacional del Litoral. Facultad de Ingeniería y Ciencias Hídricas; Argentina.
Hidden Markov models (HMM) are statistical models which can efficiently deal with sequential data. They provide a way to model complex dependencies between observed data by setting simple dependencies between latent variables: a Markov chain that is not available to the observer. When used in a classification setting, an HMM models the probability density function of the data from each class and label assignement is achieved using a plug-in Bayes classifier. This is a typical example of generative learning, which can be suboptimal when the data does not match the assumed distribution. In this thesis we study methods and algorithms to exploit discriminant information when using HMM to classify sequential data. In the first part, we deal with HMM defined on the wavelet transform of the input sequences. These are hierarchical Markovian structures that use hidden Markov trees as observation models for the wavelet coefficients, given the state of the underlying chain. We derive new training algorithms for these models, specifically targeted to achieve minimum classification error. In the second part of the thesis, we take a look back to HMM with mixtures of Gaussians as observation densities. We focus in scenarios of high-dimensional observed data and derive methods for dimension reduction of the feature space using the approach of statistical sufficiency, which aims to preserve class information in the reduced data. We derive new algorithms and use this framework to analyze information preservation attained by available methods of dimensionality reduction in HMM.
Los modelos ocultos de Markov (HMM) son modelos estadísticos usados frecuentemente con datos sequenciales. Proveen un medio eficaz para modelar dependencias complejas a través de dependencias sencillas entre variables latentes que forman una cadena de Markov. Cuando se usan en tareas de clasificación, un HMM modela la función de densidad de probabilidad de los datos de cada clase y la asignación de etiquetas se realiza usando una versión plug-in de la regla de decisión de Bayes. Esto es un ejemplo de aprendizaje generativo, que puede ser subóptimo cuando la distribución de los datos se aparta de la supuesta. En esta tesis se estudian métodos y algoritmos que tienen por objeto aprovechar información discriminante en la clasificación de datos secuenciales modelados con HMM. En la primera parte del trabajo abordamos problemas con HMM definidos sobre la transformada onditas de las secuencias de entrada. Se trata de HMM jerárquicos que usan árboles ocultos de Markov como modelo de observación para los coeficientes de la transforma. Proponemos nuevos algoritmos de entrenamiento para estos modelos, basados directamente en la minimización del error de clasificación como criterio de aprendizaje. En la segunda parte de la tesis revisitamos los HMM más comunes que usan mezclas de gaussianas como modelos de observación, pero nos enfocamos en escenarios de alta dimensionalidad. Derivamos métodos para reducir la dimensión del espacio de características sin perder información discriminante, usando para ello el enfoque de suficiencia estadística. Proponemos nuevos algoritmos y analizamos bajo este marco métodos existentes de reducción dimensional en HMM.
Consejo Nacional de Investigaciones Científicas y Técnicas
description Fil: Tomassi, Diego Rodolfo. Universidad Nacional del Litoral. Facultad de Ingeniería y Ciencias Hídricas; Argentina.
publishDate 2011
dc.date.none.fl_str_mv 2011-03-09
info:eu-repo/date/embargoEnd/2020-03-09
dc.type.none.fl_str_mv info:eu-repo/semantics/doctoralThesis
info:eu-repo/semantics/acceptedVersion
SNRD
http://purl.org/coar/resource_type/c_db06
info:ar-repo/semantics/tesisDoctoral
format doctoralThesis
status_str acceptedVersion
dc.identifier.none.fl_str_mv http://hdl.handle.net/11185/1175
url http://hdl.handle.net/11185/1175
dc.language.none.fl_str_mv eng
eng
language eng
dc.rights.none.fl_str_mv info:eu-repo/semantics/embargoedAccess
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://creativecommons.org/licenses/by-nc-nd/4.0/deed.es
eu_rights_str_mv embargoedAccess
rights_invalid_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://creativecommons.org/licenses/by-nc-nd/4.0/deed.es
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Biblioteca Virtual (UNL)
instname:Universidad Nacional del Litoral
instacron:UNL
reponame_str Biblioteca Virtual (UNL)
collection Biblioteca Virtual (UNL)
instname_str Universidad Nacional del Litoral
instacron_str UNL
institution UNL
repository.name.fl_str_mv Biblioteca Virtual (UNL) - Universidad Nacional del Litoral
repository.mail.fl_str_mv jdeba@unl.edu.ar
_version_ 1844621939084099584
score 12.559606