Nuevos métodos basados en núcleos para la representación eficiente de datos bajo suficiencia estadística
- Autores
- Ibañez, Diego Isaías
- Año de publicación
- 2023
- Idioma
- español castellano
- Tipo de recurso
- tesis doctoral
- Estado
- versión aceptada
- Colaborador/a o director/a de tesis
- Tomassi, Diego
Schlottahuer, Gastón
Flesia, Ana Georgina
Rodríguez, Daniela
Forzani, Liliana - Descripción
- Fil: Ibañez, Diego Isaías. Universidad Nacional del Litoral. Facultad de Ingeniería y Ciencias Hídricas; Argentina.
En muchas aplicaciones en las que intentamos predecir una variable respuesta a partir de un conjunto de variables predictoras, la reducción de dimensiones es una herramienta adecuada para ayudar a comprender los datos medidos y visualizar las relaciones entre las variables. Consiste en obtener representaciones de los datos en un espacio de menor dimensión, con el objetivo de facilitar el análisis exploratorio y el posterior tratamiento estadístico. En este marco, la reducción suficiente de dimensiones (SDR) intenta proporcionar una solución rigurosa al propósito de reducir preservando la información sobre la respuesta, utilizando el concepto de suficiencia estadística. Típicamente, los métodos de SDR existentes son lineales y se basan en suposiciones que en la práctica pueden no estar respaldadas por los datos. En esta tesis buscamos ampliar la aplicabilidad de SDR a problemas reales, avanzando en dos direcciones vinculadas por la aplicación de métodos basados en núcleos en espacios de Hilbert con núcleo reproductor (RKHS). En primer lugar, obtenemos SDR para las familias exponenciales basadas en núcleos (KEF), una amplia clase de distribuciones de probabilidad, y establecemos una importante conexión formal con clasificadores de vectores soporte (SVM) que nos permite lograr eficiencia computacional. En segundo lugar, abordamos el problema de reducción de dimensiones con información adicional, un escenario en el cual existe una variable extra que también contiene información predictiva pero solo puede ser utilizada durante la etapa de entrenamiento. Nuestra contribución es una metodología general de SDR que incorpora la información adicional, incluso si ésta es de alta dimensionalidad.
In many applications where we attempt to predict a response variable from a set of predictor variables, dimension reduction is an appropriate tool to aid understanding of the measured data and to visualize existing relationships between variables. It consists of obtaining representations of the data in a lower-dimensional space, in order to facilitate exploratory analysis and subsequent statistical treatment. In this framework, sufficient dimension reduction (SDR) attempts to provide a rigorous solution for the objective of reduction while preserving information about the response, by employing the concept of statistical sufficiency. Typically, existing SDR methods are linear and rely on assumptions that may not be supported by the data in practice. In this thesis we seek to extend the suitability of SDR to real problems, by advancing in two directions linked by the application of kernel methods in reproducing kernel Hilbert spaces (RKHS). Firstly, we obtain SDR for kernel exponential families (KEF), a broad class of probability distributions, and we establish an important formal connection with support vector machines (SVM) that allow us to achieve computational efficiency. Secondly, we address the dimension reduction problem with additional information, a scenario in which there is an extra variable that also contains predictive information but can only be utilized during the training stage. Our contribution is a general methodology of SDR that incorporates additional information, even if it is high-dimensional.
Consejo Nacional de Investigaciones Científicas y Técnicas - Materia
-
Reducción suficiente de dimensiones
Análisis discriminante
Espacios de Hilbert con núcleo reproductor
Familia exponencial basada en núcleos
Máquinas de vectores soporte
Reducción suficiente de dimensiones con información adicional
Sufficient dimension reduction
Discriminant analysis
Reproducing kernel Hilbert spaces
Kernel exponential families
Support vector machines
Sufficient dimension reduction with additional information - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- http://creativecommons.org/licenses/by-nc-nd/4.0/deed.es
- Repositorio
- Institución
- Universidad Nacional del Litoral
- OAI Identificador
- oai:https://bibliotecavirtual.unl.edu.ar:11185/7510
Ver los metadatos del registro completo
id |
UNLBT_e8fff28bc37c7d502253b08db312faef |
---|---|
oai_identifier_str |
oai:https://bibliotecavirtual.unl.edu.ar:11185/7510 |
network_acronym_str |
UNLBT |
repository_id_str |
2187 |
network_name_str |
Biblioteca Virtual (UNL) |
spelling |
Nuevos métodos basados en núcleos para la representación eficiente de datos bajo suficiencia estadísticaNew kernel-based methods for the efficient representation of data under statistical sufficiencyIbañez, Diego IsaíasReducción suficiente de dimensionesAnálisis discriminanteEspacios de Hilbert con núcleo reproductorFamilia exponencial basada en núcleosMáquinas de vectores soporteReducción suficiente de dimensiones con información adicionalSufficient dimension reductionDiscriminant analysisReproducing kernel Hilbert spacesKernel exponential familiesSupport vector machinesSufficient dimension reduction with additional informationFil: Ibañez, Diego Isaías. Universidad Nacional del Litoral. Facultad de Ingeniería y Ciencias Hídricas; Argentina.En muchas aplicaciones en las que intentamos predecir una variable respuesta a partir de un conjunto de variables predictoras, la reducción de dimensiones es una herramienta adecuada para ayudar a comprender los datos medidos y visualizar las relaciones entre las variables. Consiste en obtener representaciones de los datos en un espacio de menor dimensión, con el objetivo de facilitar el análisis exploratorio y el posterior tratamiento estadístico. En este marco, la reducción suficiente de dimensiones (SDR) intenta proporcionar una solución rigurosa al propósito de reducir preservando la información sobre la respuesta, utilizando el concepto de suficiencia estadística. Típicamente, los métodos de SDR existentes son lineales y se basan en suposiciones que en la práctica pueden no estar respaldadas por los datos. En esta tesis buscamos ampliar la aplicabilidad de SDR a problemas reales, avanzando en dos direcciones vinculadas por la aplicación de métodos basados en núcleos en espacios de Hilbert con núcleo reproductor (RKHS). En primer lugar, obtenemos SDR para las familias exponenciales basadas en núcleos (KEF), una amplia clase de distribuciones de probabilidad, y establecemos una importante conexión formal con clasificadores de vectores soporte (SVM) que nos permite lograr eficiencia computacional. En segundo lugar, abordamos el problema de reducción de dimensiones con información adicional, un escenario en el cual existe una variable extra que también contiene información predictiva pero solo puede ser utilizada durante la etapa de entrenamiento. Nuestra contribución es una metodología general de SDR que incorpora la información adicional, incluso si ésta es de alta dimensionalidad.In many applications where we attempt to predict a response variable from a set of predictor variables, dimension reduction is an appropriate tool to aid understanding of the measured data and to visualize existing relationships between variables. It consists of obtaining representations of the data in a lower-dimensional space, in order to facilitate exploratory analysis and subsequent statistical treatment. In this framework, sufficient dimension reduction (SDR) attempts to provide a rigorous solution for the objective of reduction while preserving information about the response, by employing the concept of statistical sufficiency. Typically, existing SDR methods are linear and rely on assumptions that may not be supported by the data in practice. In this thesis we seek to extend the suitability of SDR to real problems, by advancing in two directions linked by the application of kernel methods in reproducing kernel Hilbert spaces (RKHS). Firstly, we obtain SDR for kernel exponential families (KEF), a broad class of probability distributions, and we establish an important formal connection with support vector machines (SVM) that allow us to achieve computational efficiency. Secondly, we address the dimension reduction problem with additional information, a scenario in which there is an extra variable that also contains predictive information but can only be utilized during the training stage. Our contribution is a general methodology of SDR that incorporates additional information, even if it is high-dimensional.Consejo Nacional de Investigaciones Científicas y TécnicasTomassi, DiegoSchlottahuer, GastónFlesia, Ana GeorginaRodríguez, DanielaForzani, Liliana2024-02-16T12:48:07Z2023-12-14info:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_db06info:ar-repo/semantics/tesisDoctoralapplication/pdfhttps://hdl.handle.net/11185/7510spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-nd/4.0/deed.esreponame:Biblioteca Virtual (UNL)instname:Universidad Nacional del Litoralinstacron:UNL2025-09-29T14:30:46Zoai:https://bibliotecavirtual.unl.edu.ar:11185/7510Institucionalhttp://bibliotecavirtual.unl.edu.ar/Universidad públicaNo correspondeajdeba@unl.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:21872025-09-29 14:30:47.19Biblioteca Virtual (UNL) - Universidad Nacional del Litoralfalse |
dc.title.none.fl_str_mv |
Nuevos métodos basados en núcleos para la representación eficiente de datos bajo suficiencia estadística New kernel-based methods for the efficient representation of data under statistical sufficiency |
title |
Nuevos métodos basados en núcleos para la representación eficiente de datos bajo suficiencia estadística |
spellingShingle |
Nuevos métodos basados en núcleos para la representación eficiente de datos bajo suficiencia estadística Ibañez, Diego Isaías Reducción suficiente de dimensiones Análisis discriminante Espacios de Hilbert con núcleo reproductor Familia exponencial basada en núcleos Máquinas de vectores soporte Reducción suficiente de dimensiones con información adicional Sufficient dimension reduction Discriminant analysis Reproducing kernel Hilbert spaces Kernel exponential families Support vector machines Sufficient dimension reduction with additional information |
title_short |
Nuevos métodos basados en núcleos para la representación eficiente de datos bajo suficiencia estadística |
title_full |
Nuevos métodos basados en núcleos para la representación eficiente de datos bajo suficiencia estadística |
title_fullStr |
Nuevos métodos basados en núcleos para la representación eficiente de datos bajo suficiencia estadística |
title_full_unstemmed |
Nuevos métodos basados en núcleos para la representación eficiente de datos bajo suficiencia estadística |
title_sort |
Nuevos métodos basados en núcleos para la representación eficiente de datos bajo suficiencia estadística |
dc.creator.none.fl_str_mv |
Ibañez, Diego Isaías |
author |
Ibañez, Diego Isaías |
author_facet |
Ibañez, Diego Isaías |
author_role |
author |
dc.contributor.none.fl_str_mv |
Tomassi, Diego Schlottahuer, Gastón Flesia, Ana Georgina Rodríguez, Daniela Forzani, Liliana |
dc.subject.none.fl_str_mv |
Reducción suficiente de dimensiones Análisis discriminante Espacios de Hilbert con núcleo reproductor Familia exponencial basada en núcleos Máquinas de vectores soporte Reducción suficiente de dimensiones con información adicional Sufficient dimension reduction Discriminant analysis Reproducing kernel Hilbert spaces Kernel exponential families Support vector machines Sufficient dimension reduction with additional information |
topic |
Reducción suficiente de dimensiones Análisis discriminante Espacios de Hilbert con núcleo reproductor Familia exponencial basada en núcleos Máquinas de vectores soporte Reducción suficiente de dimensiones con información adicional Sufficient dimension reduction Discriminant analysis Reproducing kernel Hilbert spaces Kernel exponential families Support vector machines Sufficient dimension reduction with additional information |
dc.description.none.fl_txt_mv |
Fil: Ibañez, Diego Isaías. Universidad Nacional del Litoral. Facultad de Ingeniería y Ciencias Hídricas; Argentina. En muchas aplicaciones en las que intentamos predecir una variable respuesta a partir de un conjunto de variables predictoras, la reducción de dimensiones es una herramienta adecuada para ayudar a comprender los datos medidos y visualizar las relaciones entre las variables. Consiste en obtener representaciones de los datos en un espacio de menor dimensión, con el objetivo de facilitar el análisis exploratorio y el posterior tratamiento estadístico. En este marco, la reducción suficiente de dimensiones (SDR) intenta proporcionar una solución rigurosa al propósito de reducir preservando la información sobre la respuesta, utilizando el concepto de suficiencia estadística. Típicamente, los métodos de SDR existentes son lineales y se basan en suposiciones que en la práctica pueden no estar respaldadas por los datos. En esta tesis buscamos ampliar la aplicabilidad de SDR a problemas reales, avanzando en dos direcciones vinculadas por la aplicación de métodos basados en núcleos en espacios de Hilbert con núcleo reproductor (RKHS). En primer lugar, obtenemos SDR para las familias exponenciales basadas en núcleos (KEF), una amplia clase de distribuciones de probabilidad, y establecemos una importante conexión formal con clasificadores de vectores soporte (SVM) que nos permite lograr eficiencia computacional. En segundo lugar, abordamos el problema de reducción de dimensiones con información adicional, un escenario en el cual existe una variable extra que también contiene información predictiva pero solo puede ser utilizada durante la etapa de entrenamiento. Nuestra contribución es una metodología general de SDR que incorpora la información adicional, incluso si ésta es de alta dimensionalidad. In many applications where we attempt to predict a response variable from a set of predictor variables, dimension reduction is an appropriate tool to aid understanding of the measured data and to visualize existing relationships between variables. It consists of obtaining representations of the data in a lower-dimensional space, in order to facilitate exploratory analysis and subsequent statistical treatment. In this framework, sufficient dimension reduction (SDR) attempts to provide a rigorous solution for the objective of reduction while preserving information about the response, by employing the concept of statistical sufficiency. Typically, existing SDR methods are linear and rely on assumptions that may not be supported by the data in practice. In this thesis we seek to extend the suitability of SDR to real problems, by advancing in two directions linked by the application of kernel methods in reproducing kernel Hilbert spaces (RKHS). Firstly, we obtain SDR for kernel exponential families (KEF), a broad class of probability distributions, and we establish an important formal connection with support vector machines (SVM) that allow us to achieve computational efficiency. Secondly, we address the dimension reduction problem with additional information, a scenario in which there is an extra variable that also contains predictive information but can only be utilized during the training stage. Our contribution is a general methodology of SDR that incorporates additional information, even if it is high-dimensional. Consejo Nacional de Investigaciones Científicas y Técnicas |
description |
Fil: Ibañez, Diego Isaías. Universidad Nacional del Litoral. Facultad de Ingeniería y Ciencias Hídricas; Argentina. |
publishDate |
2023 |
dc.date.none.fl_str_mv |
2023-12-14 2024-02-16T12:48:07Z |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/doctoralThesis info:eu-repo/semantics/acceptedVersion http://purl.org/coar/resource_type/c_db06 info:ar-repo/semantics/tesisDoctoral |
format |
doctoralThesis |
status_str |
acceptedVersion |
dc.identifier.none.fl_str_mv |
https://hdl.handle.net/11185/7510 |
url |
https://hdl.handle.net/11185/7510 |
dc.language.none.fl_str_mv |
spa |
language |
spa |
dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess http://creativecommons.org/licenses/by-nc-nd/4.0/deed.es |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/deed.es |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Biblioteca Virtual (UNL) instname:Universidad Nacional del Litoral instacron:UNL |
reponame_str |
Biblioteca Virtual (UNL) |
collection |
Biblioteca Virtual (UNL) |
instname_str |
Universidad Nacional del Litoral |
instacron_str |
UNL |
institution |
UNL |
repository.name.fl_str_mv |
Biblioteca Virtual (UNL) - Universidad Nacional del Litoral |
repository.mail.fl_str_mv |
jdeba@unl.edu.ar |
_version_ |
1844621950105681920 |
score |
12.559606 |