Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala

Autores
Allasia, María Belén; Branco, Márcia D´Elia; Quaglino, Marta Beatriz
Año de publicación
2016
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión aceptada
Descripción
Uno de los desafíos más importantes del análisis estadístico en grandes volúmenes de da-tos es identificar aquellas variables que provean información valiosa, haciendo una selección de variables predictoras. La estimación Lasso (Least Absolute Shrinkage and Selection Ope-rator) para el modelo de regresión lineal puede ser interpretada desde el enfoque Bayesiano como la moda a posteriori cuando los coeficientes de regresión tienen distribución priori do-ble exponencial independientes. Al representar dicha distribución como una distribución Normal con mezcla de escala, es factible la construcción de un modelo jerárquico mediante la introducción de un vector de variables latentes, conjugando una distribución priori normal para los parámetros de regresión y prioris exponencial independientes para sus respectivas variancias. Mediante la implementación del algoritmo de simulación de Gibbs a partir de las distribuciones condicionales completas, se obtienen secuencias que permiten estimar cual-quier característica de interés de la distribución a posteriori de manera sencilla. La regresión Lasso Bayesiana tiene una enorme ventaja sobre el método clásico, dado que permite mejo-rar sustancialmente la inferencia, especialmente en el contexto de muchas variables predic-toras
La regresión Lasso Bayesiana es fácil de implementar y permite establecer intervalos de credibilidad para todos los parámetros estimados, incluida la variancia de los errores aleatorios. Al conseguir mediante GS una estimación de la distribución a posteriori de los parámetros, puede calcularse cualquier característica de interés bajo dicha distribución, como la esperanza a posteriori o la moda (� ̂ �����). Esto le otorga una enorme ventaja sobre el método clásico. En algunos casos, los valores de las estimaciones producidos por las regresiones Lasso estándar y bayesiana son muy similares. Dependiendo del método de optimización y si se utilizan o no aproximaciones, ambas estimaciones pueden coincidir. Los mecanismos de elección de � que se proponen para la regresión Lasso Bayesiana, son aplicables para la regresión Lasso clásica y podrían ayudar a simplificar, otorgando mayor objetividad, la elección del mismo. Por otra parte, Casella (2008) muestra algunas extensiones del enfoque bayesiano para las regresiones Lasso y plantea la posibilidad de extender las consideraciones a modelos lineales generalizados, mediante algunas modificaciones metodológicas que no deberían requerir mayor esfuerzo computacional que desde el punto de vista clásico
One of the most important challenges of statistical analysis in big data is to identify those variables that provide valuable information, making a selection of predictor variables. The Lasso (Least Absolute Shrinkage and Selection Operator) estimate for the linear regression model can be interpreted from the Bayesian approach as a posterior mode estimate when the regression parameters have independent double-exponential priors. Representing such distribution as a scale mixture of normals, it is feasible to construct a hierarchical model by introducing a vector of latent variables, with conjugate normal priors for the regression pa-rameters and independent exponential priors on their variances. By implementing the simula-tion Gibbs algorithm from complete conditional distributions, the obtained sequences allow to estimate any characteristic of interest based on the posterior distribution in a simple way. The Bayesian Lasso regression has a huge advantage over conventional methods; it sub-stantially improves inference, especially in the context of many predictor variables
Fil: Fil: Allasia, María Belén - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - Argentina
Fil: Fil: Allasia, María Belén - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - Argentina
Fil: Fil: Quaglino, Marta Beatriz - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - Argentina
Materia
Data Mining
Regresión penalizada
Selección de variables
Data Mining
Penalized regression
Variable Selection
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Repositorio
RepHipUNR (UNR)
Institución
Universidad Nacional de Rosario
OAI Identificador
oai:rephip.unr.edu.ar:2133/7625

id RepHipUNR_89a73bb8b7c2bc41c5a73ffe78203ced
oai_identifier_str oai:rephip.unr.edu.ar:2133/7625
network_acronym_str RepHipUNR
repository_id_str 1550
network_name_str RepHipUNR (UNR)
spelling Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escalaAllasia, María BelénBranco, Márcia D´EliaQuaglino, Marta BeatrizData MiningRegresión penalizadaSelección de variablesData MiningPenalized regressionVariable SelectionUno de los desafíos más importantes del análisis estadístico en grandes volúmenes de da-tos es identificar aquellas variables que provean información valiosa, haciendo una selección de variables predictoras. La estimación Lasso (Least Absolute Shrinkage and Selection Ope-rator) para el modelo de regresión lineal puede ser interpretada desde el enfoque Bayesiano como la moda a posteriori cuando los coeficientes de regresión tienen distribución priori do-ble exponencial independientes. Al representar dicha distribución como una distribución Normal con mezcla de escala, es factible la construcción de un modelo jerárquico mediante la introducción de un vector de variables latentes, conjugando una distribución priori normal para los parámetros de regresión y prioris exponencial independientes para sus respectivas variancias. Mediante la implementación del algoritmo de simulación de Gibbs a partir de las distribuciones condicionales completas, se obtienen secuencias que permiten estimar cual-quier característica de interés de la distribución a posteriori de manera sencilla. La regresión Lasso Bayesiana tiene una enorme ventaja sobre el método clásico, dado que permite mejo-rar sustancialmente la inferencia, especialmente en el contexto de muchas variables predic-torasLa regresión Lasso Bayesiana es fácil de implementar y permite establecer intervalos de credibilidad para todos los parámetros estimados, incluida la variancia de los errores aleatorios. Al conseguir mediante GS una estimación de la distribución a posteriori de los parámetros, puede calcularse cualquier característica de interés bajo dicha distribución, como la esperanza a posteriori o la moda (� ̂ �����). Esto le otorga una enorme ventaja sobre el método clásico. En algunos casos, los valores de las estimaciones producidos por las regresiones Lasso estándar y bayesiana son muy similares. Dependiendo del método de optimización y si se utilizan o no aproximaciones, ambas estimaciones pueden coincidir. Los mecanismos de elección de � que se proponen para la regresión Lasso Bayesiana, son aplicables para la regresión Lasso clásica y podrían ayudar a simplificar, otorgando mayor objetividad, la elección del mismo. Por otra parte, Casella (2008) muestra algunas extensiones del enfoque bayesiano para las regresiones Lasso y plantea la posibilidad de extender las consideraciones a modelos lineales generalizados, mediante algunas modificaciones metodológicas que no deberían requerir mayor esfuerzo computacional que desde el punto de vista clásicoOne of the most important challenges of statistical analysis in big data is to identify those variables that provide valuable information, making a selection of predictor variables. The Lasso (Least Absolute Shrinkage and Selection Operator) estimate for the linear regression model can be interpreted from the Bayesian approach as a posterior mode estimate when the regression parameters have independent double-exponential priors. Representing such distribution as a scale mixture of normals, it is feasible to construct a hierarchical model by introducing a vector of latent variables, with conjugate normal priors for the regression pa-rameters and independent exponential priors on their variances. By implementing the simula-tion Gibbs algorithm from complete conditional distributions, the obtained sequences allow to estimate any characteristic of interest based on the posterior distribution in a simple way. The Bayesian Lasso regression has a huge advantage over conventional methods; it sub-stantially improves inference, especially in the context of many predictor variablesFil: Fil: Allasia, María Belén - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - ArgentinaFil: Fil: Allasia, María Belén - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - ArgentinaFil: Fil: Quaglino, Marta Beatriz - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - ArgentinaSecretaría de Ciencia y Tecnología. Facultad de Ciencias Económicas y Estadística. Universidad Nacional de Rosario2016-11info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttp://hdl.handle.net/2133/7625urn:issn: 1668-5008spahttps://www.fcecon.unr.edu.ar/web-nueva/investigacion/actas-de-las-jornadas-anualesinfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/2.5/ar/Licencia RepHipreponame:RepHipUNR (UNR)instname:Universidad Nacional de Rosario2025-09-11T10:20:27Zoai:rephip.unr.edu.ar:2133/7625instacron:UNRInstitucionalhttps://rephip.unr.edu.ar/Universidad públicaNo correspondehttps://rephip.unr.edu.ar/oai/requestrephip@unr.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:15502025-09-11 10:20:27.75RepHipUNR (UNR) - Universidad Nacional de Rosariofalse
dc.title.none.fl_str_mv Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala
title Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala
spellingShingle Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala
Allasia, María Belén
Data Mining
Regresión penalizada
Selección de variables
Data Mining
Penalized regression
Variable Selection
title_short Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala
title_full Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala
title_fullStr Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala
title_full_unstemmed Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala
title_sort Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala
dc.creator.none.fl_str_mv Allasia, María Belén
Branco, Márcia D´Elia
Quaglino, Marta Beatriz
author Allasia, María Belén
author_facet Allasia, María Belén
Branco, Márcia D´Elia
Quaglino, Marta Beatriz
author_role author
author2 Branco, Márcia D´Elia
Quaglino, Marta Beatriz
author2_role author
author
dc.contributor.none.fl_str_mv Secretaría de Ciencia y Tecnología. Facultad de Ciencias Económicas y Estadística. Universidad Nacional de Rosario
dc.subject.none.fl_str_mv Data Mining
Regresión penalizada
Selección de variables
Data Mining
Penalized regression
Variable Selection
topic Data Mining
Regresión penalizada
Selección de variables
Data Mining
Penalized regression
Variable Selection
dc.description.none.fl_txt_mv Uno de los desafíos más importantes del análisis estadístico en grandes volúmenes de da-tos es identificar aquellas variables que provean información valiosa, haciendo una selección de variables predictoras. La estimación Lasso (Least Absolute Shrinkage and Selection Ope-rator) para el modelo de regresión lineal puede ser interpretada desde el enfoque Bayesiano como la moda a posteriori cuando los coeficientes de regresión tienen distribución priori do-ble exponencial independientes. Al representar dicha distribución como una distribución Normal con mezcla de escala, es factible la construcción de un modelo jerárquico mediante la introducción de un vector de variables latentes, conjugando una distribución priori normal para los parámetros de regresión y prioris exponencial independientes para sus respectivas variancias. Mediante la implementación del algoritmo de simulación de Gibbs a partir de las distribuciones condicionales completas, se obtienen secuencias que permiten estimar cual-quier característica de interés de la distribución a posteriori de manera sencilla. La regresión Lasso Bayesiana tiene una enorme ventaja sobre el método clásico, dado que permite mejo-rar sustancialmente la inferencia, especialmente en el contexto de muchas variables predic-toras
La regresión Lasso Bayesiana es fácil de implementar y permite establecer intervalos de credibilidad para todos los parámetros estimados, incluida la variancia de los errores aleatorios. Al conseguir mediante GS una estimación de la distribución a posteriori de los parámetros, puede calcularse cualquier característica de interés bajo dicha distribución, como la esperanza a posteriori o la moda (� ̂ �����). Esto le otorga una enorme ventaja sobre el método clásico. En algunos casos, los valores de las estimaciones producidos por las regresiones Lasso estándar y bayesiana son muy similares. Dependiendo del método de optimización y si se utilizan o no aproximaciones, ambas estimaciones pueden coincidir. Los mecanismos de elección de � que se proponen para la regresión Lasso Bayesiana, son aplicables para la regresión Lasso clásica y podrían ayudar a simplificar, otorgando mayor objetividad, la elección del mismo. Por otra parte, Casella (2008) muestra algunas extensiones del enfoque bayesiano para las regresiones Lasso y plantea la posibilidad de extender las consideraciones a modelos lineales generalizados, mediante algunas modificaciones metodológicas que no deberían requerir mayor esfuerzo computacional que desde el punto de vista clásico
One of the most important challenges of statistical analysis in big data is to identify those variables that provide valuable information, making a selection of predictor variables. The Lasso (Least Absolute Shrinkage and Selection Operator) estimate for the linear regression model can be interpreted from the Bayesian approach as a posterior mode estimate when the regression parameters have independent double-exponential priors. Representing such distribution as a scale mixture of normals, it is feasible to construct a hierarchical model by introducing a vector of latent variables, with conjugate normal priors for the regression pa-rameters and independent exponential priors on their variances. By implementing the simula-tion Gibbs algorithm from complete conditional distributions, the obtained sequences allow to estimate any characteristic of interest based on the posterior distribution in a simple way. The Bayesian Lasso regression has a huge advantage over conventional methods; it sub-stantially improves inference, especially in the context of many predictor variables
Fil: Fil: Allasia, María Belén - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - Argentina
Fil: Fil: Allasia, María Belén - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - Argentina
Fil: Fil: Quaglino, Marta Beatriz - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - Argentina
description Uno de los desafíos más importantes del análisis estadístico en grandes volúmenes de da-tos es identificar aquellas variables que provean información valiosa, haciendo una selección de variables predictoras. La estimación Lasso (Least Absolute Shrinkage and Selection Ope-rator) para el modelo de regresión lineal puede ser interpretada desde el enfoque Bayesiano como la moda a posteriori cuando los coeficientes de regresión tienen distribución priori do-ble exponencial independientes. Al representar dicha distribución como una distribución Normal con mezcla de escala, es factible la construcción de un modelo jerárquico mediante la introducción de un vector de variables latentes, conjugando una distribución priori normal para los parámetros de regresión y prioris exponencial independientes para sus respectivas variancias. Mediante la implementación del algoritmo de simulación de Gibbs a partir de las distribuciones condicionales completas, se obtienen secuencias que permiten estimar cual-quier característica de interés de la distribución a posteriori de manera sencilla. La regresión Lasso Bayesiana tiene una enorme ventaja sobre el método clásico, dado que permite mejo-rar sustancialmente la inferencia, especialmente en el contexto de muchas variables predic-toras
publishDate 2016
dc.date.none.fl_str_mv 2016-11
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject


info:eu-repo/semantics/acceptedVersion
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str acceptedVersion
dc.identifier.none.fl_str_mv http://hdl.handle.net/2133/7625
urn:issn: 1668-5008
url http://hdl.handle.net/2133/7625
identifier_str_mv urn:issn: 1668-5008
dc.language.none.fl_str_mv spa
language spa
dc.relation.none.fl_str_mv https://www.fcecon.unr.edu.ar/web-nueva/investigacion/actas-de-las-jornadas-anuales
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Licencia RepHip
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Licencia RepHip
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:RepHipUNR (UNR)
instname:Universidad Nacional de Rosario
reponame_str RepHipUNR (UNR)
collection RepHipUNR (UNR)
instname_str Universidad Nacional de Rosario
repository.name.fl_str_mv RepHipUNR (UNR) - Universidad Nacional de Rosario
repository.mail.fl_str_mv rephip@unr.edu.ar
_version_ 1842975069208313857
score 12.993085