Métricas de Invarianza para Redes Neuronales

Autores
Quiroga, Facundo Manuel
Año de publicación
2022
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
Las Redes Neuronales son los modelos de aprendizaje automático con mejor desempeño en la actualidad en una gran variedad de problemas. En particular, las Redes Convolucionales, es decir, Redes Neuronales que utilizan capas convolucionales, son el estado del arte en la mayoría de los problemas de visión por computadora.Muchos de los problemas para los cuales las Redes Convolucionales son el estado del arte requieren que los modelos se comporten de cierta manera ante transformaciones de su entrada. Existen dos propiedades fundamentales que capturan dicho requerimiento; la invarianza y la equivarianza. La invarianza nos dice que la salida del modelo no es afectado por las transformaciones. La equivarianza permite que la salida sea afectada, pero de una manera controlada y útil.Si bien los modelos tradicionales de Redes Convolucionales son equivariantes a la traslación por diseño, no son ni invariantes a dicha transformación ni equivariantes a otras en los escenarios usuales de entrenamiento y uso. Existen dos opciones principales para otorgar invarianza o equivarianza a un modelo de red neuronal. La tradicional ha sido modificar el modelo para dotarlo de esas propiedades. La otra opción es entrenarlo con aumentación de datos utilizando como transformaciones el mismo conjunto al que se desea la equivarianza.No obstante, no está claro cómo los modelos adquieren estas propiedades, tanto al usar aumentación de datos como al modificar el modelo. Tampoco está claro como las modificaciones de modelos afectan la eficiencia y el poder de representación de los mismos. Más aún, en los modelos tradicionales tampoco es conocido cómo se adquieren dichas propiedades con aumentación de datos, así como cuál es la mejor estrategia para aumentar los datos con este fin.Esta línea de investigación busca contribuir al entendimiento y mejora de la equivarianza de los modelos de redes neuronales, en particular aplicados a la clasificación de formas de mano para la lengua de seña y otros tipos de gestos mediante modelos de redes convolucionales.Realizamos las siguientes contribuciones:* Un análisis de estrategias para lograr equivarianza a las rotaciones en redes neuronales:* Un conjunto de métricas para analizar empíricamente la equivarianza de las redes neuronales, así como de cualquier otro modelo basado en representaciones latentes.* Análisis del cambio en la estructura de la equivarianza de distintos modelos ante cambios de los hiperparámetros, transformaciones y conjuntos de datos. Finalmente, creamos la libería de Métricas transformacionales, de código abierto, para computar métricas transformacionales como las definidas para modelos de redes neuronales, utilizando el framework PyTorch y Numpy (https://github.com/facundoq/transformational_measures). Creemos que es posible aprender más acerca de las Redes Neuronales y Convolucionales estudiando sus equivarianzas, y así mejorar los modelos existentes para hacer posible nuevas aplicaciones.
Carrera: Doctorado en Ciencias Informáticas Tipo de beca: Beca Posdoctoral Año de inicio de beca: 2020 Año de finalización de beca: 2023 Organismo: UNLP Apellido, Nombre del Director/a/e: Lanzarini, Laura Cristina Lugar de desarrollo: Instituto de Investigación en Informática (III-LIDI) Tipo de investigación: Aplicada
Facultad de Informática
Materia
Cs de la Computación
Redes Neuronales
Neuronal Networks
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/4.0/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/145813

id SEDICI_ea8671542a4c5e297525b7fe089bc811
oai_identifier_str oai:sedici.unlp.edu.ar:10915/145813
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Métricas de Invarianza para Redes NeuronalesInvariance Measures for Neural NetworksQuiroga, Facundo ManuelCs de la ComputaciónRedes NeuronalesNeuronal NetworksLas Redes Neuronales son los modelos de aprendizaje automático con mejor desempeño en la actualidad en una gran variedad de problemas. En particular, las Redes Convolucionales, es decir, Redes Neuronales que utilizan capas convolucionales, son el estado del arte en la mayoría de los problemas de visión por computadora.Muchos de los problemas para los cuales las Redes Convolucionales son el estado del arte requieren que los modelos se comporten de cierta manera ante transformaciones de su entrada. Existen dos propiedades fundamentales que capturan dicho requerimiento; la invarianza y la equivarianza. La invarianza nos dice que la salida del modelo no es afectado por las transformaciones. La equivarianza permite que la salida sea afectada, pero de una manera controlada y útil.Si bien los modelos tradicionales de Redes Convolucionales son equivariantes a la traslación por diseño, no son ni invariantes a dicha transformación ni equivariantes a otras en los escenarios usuales de entrenamiento y uso. Existen dos opciones principales para otorgar invarianza o equivarianza a un modelo de red neuronal. La tradicional ha sido modificar el modelo para dotarlo de esas propiedades. La otra opción es entrenarlo con aumentación de datos utilizando como transformaciones el mismo conjunto al que se desea la equivarianza.No obstante, no está claro cómo los modelos adquieren estas propiedades, tanto al usar aumentación de datos como al modificar el modelo. Tampoco está claro como las modificaciones de modelos afectan la eficiencia y el poder de representación de los mismos. Más aún, en los modelos tradicionales tampoco es conocido cómo se adquieren dichas propiedades con aumentación de datos, así como cuál es la mejor estrategia para aumentar los datos con este fin.Esta línea de investigación busca contribuir al entendimiento y mejora de la equivarianza de los modelos de redes neuronales, en particular aplicados a la clasificación de formas de mano para la lengua de seña y otros tipos de gestos mediante modelos de redes convolucionales.Realizamos las siguientes contribuciones:* Un análisis de estrategias para lograr equivarianza a las rotaciones en redes neuronales:* Un conjunto de métricas para analizar empíricamente la equivarianza de las redes neuronales, así como de cualquier otro modelo basado en representaciones latentes.* Análisis del cambio en la estructura de la equivarianza de distintos modelos ante cambios de los hiperparámetros, transformaciones y conjuntos de datos. Finalmente, creamos la libería de Métricas transformacionales, de código abierto, para computar métricas transformacionales como las definidas para modelos de redes neuronales, utilizando el framework PyTorch y Numpy (https://github.com/facundoq/transformational_measures). Creemos que es posible aprender más acerca de las Redes Neuronales y Convolucionales estudiando sus equivarianzas, y así mejorar los modelos existentes para hacer posible nuevas aplicaciones.Carrera: Doctorado en Ciencias Informáticas Tipo de beca: Beca Posdoctoral Año de inicio de beca: 2020 Año de finalización de beca: 2023 Organismo: UNLP Apellido, Nombre del Director/a/e: Lanzarini, Laura Cristina Lugar de desarrollo: Instituto de Investigación en Informática (III-LIDI) Tipo de investigación: AplicadaFacultad de Informática2022-11-23info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/145813spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-03T11:09:15Zoai:sedici.unlp.edu.ar:10915/145813Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-03 11:09:15.372SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Métricas de Invarianza para Redes Neuronales
Invariance Measures for Neural Networks
title Métricas de Invarianza para Redes Neuronales
spellingShingle Métricas de Invarianza para Redes Neuronales
Quiroga, Facundo Manuel
Cs de la Computación
Redes Neuronales
Neuronal Networks
title_short Métricas de Invarianza para Redes Neuronales
title_full Métricas de Invarianza para Redes Neuronales
title_fullStr Métricas de Invarianza para Redes Neuronales
title_full_unstemmed Métricas de Invarianza para Redes Neuronales
title_sort Métricas de Invarianza para Redes Neuronales
dc.creator.none.fl_str_mv Quiroga, Facundo Manuel
author Quiroga, Facundo Manuel
author_facet Quiroga, Facundo Manuel
author_role author
dc.subject.none.fl_str_mv Cs de la Computación
Redes Neuronales
Neuronal Networks
topic Cs de la Computación
Redes Neuronales
Neuronal Networks
dc.description.none.fl_txt_mv Las Redes Neuronales son los modelos de aprendizaje automático con mejor desempeño en la actualidad en una gran variedad de problemas. En particular, las Redes Convolucionales, es decir, Redes Neuronales que utilizan capas convolucionales, son el estado del arte en la mayoría de los problemas de visión por computadora.Muchos de los problemas para los cuales las Redes Convolucionales son el estado del arte requieren que los modelos se comporten de cierta manera ante transformaciones de su entrada. Existen dos propiedades fundamentales que capturan dicho requerimiento; la invarianza y la equivarianza. La invarianza nos dice que la salida del modelo no es afectado por las transformaciones. La equivarianza permite que la salida sea afectada, pero de una manera controlada y útil.Si bien los modelos tradicionales de Redes Convolucionales son equivariantes a la traslación por diseño, no son ni invariantes a dicha transformación ni equivariantes a otras en los escenarios usuales de entrenamiento y uso. Existen dos opciones principales para otorgar invarianza o equivarianza a un modelo de red neuronal. La tradicional ha sido modificar el modelo para dotarlo de esas propiedades. La otra opción es entrenarlo con aumentación de datos utilizando como transformaciones el mismo conjunto al que se desea la equivarianza.No obstante, no está claro cómo los modelos adquieren estas propiedades, tanto al usar aumentación de datos como al modificar el modelo. Tampoco está claro como las modificaciones de modelos afectan la eficiencia y el poder de representación de los mismos. Más aún, en los modelos tradicionales tampoco es conocido cómo se adquieren dichas propiedades con aumentación de datos, así como cuál es la mejor estrategia para aumentar los datos con este fin.Esta línea de investigación busca contribuir al entendimiento y mejora de la equivarianza de los modelos de redes neuronales, en particular aplicados a la clasificación de formas de mano para la lengua de seña y otros tipos de gestos mediante modelos de redes convolucionales.Realizamos las siguientes contribuciones:* Un análisis de estrategias para lograr equivarianza a las rotaciones en redes neuronales:* Un conjunto de métricas para analizar empíricamente la equivarianza de las redes neuronales, así como de cualquier otro modelo basado en representaciones latentes.* Análisis del cambio en la estructura de la equivarianza de distintos modelos ante cambios de los hiperparámetros, transformaciones y conjuntos de datos. Finalmente, creamos la libería de Métricas transformacionales, de código abierto, para computar métricas transformacionales como las definidas para modelos de redes neuronales, utilizando el framework PyTorch y Numpy (https://github.com/facundoq/transformational_measures). Creemos que es posible aprender más acerca de las Redes Neuronales y Convolucionales estudiando sus equivarianzas, y así mejorar los modelos existentes para hacer posible nuevas aplicaciones.
Carrera: Doctorado en Ciencias Informáticas Tipo de beca: Beca Posdoctoral Año de inicio de beca: 2020 Año de finalización de beca: 2023 Organismo: UNLP Apellido, Nombre del Director/a/e: Lanzarini, Laura Cristina Lugar de desarrollo: Instituto de Investigación en Informática (III-LIDI) Tipo de investigación: Aplicada
Facultad de Informática
description Las Redes Neuronales son los modelos de aprendizaje automático con mejor desempeño en la actualidad en una gran variedad de problemas. En particular, las Redes Convolucionales, es decir, Redes Neuronales que utilizan capas convolucionales, son el estado del arte en la mayoría de los problemas de visión por computadora.Muchos de los problemas para los cuales las Redes Convolucionales son el estado del arte requieren que los modelos se comporten de cierta manera ante transformaciones de su entrada. Existen dos propiedades fundamentales que capturan dicho requerimiento; la invarianza y la equivarianza. La invarianza nos dice que la salida del modelo no es afectado por las transformaciones. La equivarianza permite que la salida sea afectada, pero de una manera controlada y útil.Si bien los modelos tradicionales de Redes Convolucionales son equivariantes a la traslación por diseño, no son ni invariantes a dicha transformación ni equivariantes a otras en los escenarios usuales de entrenamiento y uso. Existen dos opciones principales para otorgar invarianza o equivarianza a un modelo de red neuronal. La tradicional ha sido modificar el modelo para dotarlo de esas propiedades. La otra opción es entrenarlo con aumentación de datos utilizando como transformaciones el mismo conjunto al que se desea la equivarianza.No obstante, no está claro cómo los modelos adquieren estas propiedades, tanto al usar aumentación de datos como al modificar el modelo. Tampoco está claro como las modificaciones de modelos afectan la eficiencia y el poder de representación de los mismos. Más aún, en los modelos tradicionales tampoco es conocido cómo se adquieren dichas propiedades con aumentación de datos, así como cuál es la mejor estrategia para aumentar los datos con este fin.Esta línea de investigación busca contribuir al entendimiento y mejora de la equivarianza de los modelos de redes neuronales, en particular aplicados a la clasificación de formas de mano para la lengua de seña y otros tipos de gestos mediante modelos de redes convolucionales.Realizamos las siguientes contribuciones:* Un análisis de estrategias para lograr equivarianza a las rotaciones en redes neuronales:* Un conjunto de métricas para analizar empíricamente la equivarianza de las redes neuronales, así como de cualquier otro modelo basado en representaciones latentes.* Análisis del cambio en la estructura de la equivarianza de distintos modelos ante cambios de los hiperparámetros, transformaciones y conjuntos de datos. Finalmente, creamos la libería de Métricas transformacionales, de código abierto, para computar métricas transformacionales como las definidas para modelos de redes neuronales, utilizando el framework PyTorch y Numpy (https://github.com/facundoq/transformational_measures). Creemos que es posible aprender más acerca de las Redes Neuronales y Convolucionales estudiando sus equivarianzas, y así mejorar los modelos existentes para hacer posible nuevas aplicaciones.
publishDate 2022
dc.date.none.fl_str_mv 2022-11-23
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/145813
url http://sedici.unlp.edu.ar/handle/10915/145813
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1842260595881017344
score 13.13397