Métodos de entrenamiento basados en agrupamiento para capas convolucionales en redes neuronales

Autores
Rabinovich, Federico Ezequiel
Año de publicación
2023
Idioma
español castellano
Tipo de recurso
tesis de maestría
Estado
versión publicada
Colaborador/a o director/a de tesis
Quiroga, Facundo Manuel
Ronchetti, Franco
Descripción
Durante el transcurso de la última década, las redes neuronales artificiales se han convertido en la punta de lanza del campo de la inteligencia artificial. Su capacidad para modelar funciones de altísima complejidad ha quedado demostrada una y otra vez con sus permanentes avances del estado del arte en prácticamente todos los dominios del área. Las redes convolucionales en particular, han revolucionado el campo de la visión artificial y han sido empleadas con éxito en problemáticas tan disímiles como el procesamiento de lenguaje natural y el modelado de series temporales. No obstante los inmensos avances producidos en tan pocos años, las redes neuronales artificiales continúan siendo, en muchos aspectos, misteriosas “cajas negras”. Debido a la cantidad de unidades de procesamiento que las conforman, la interpretación de los resultados (inferencias) que producen resulta extremadamente compleja. Adicionalmente, presentan problemas de eficiencia, particularmente durante su entrenamiento. Los recursos computacionales necesarios para entrenar una red de miles de millones de parámetros son inmensos, generando un impacto económico y ecológico significativos. Asimismo, esta ineficiencia actúa como limitante al libre acceso a esta tecnología. Este trabajo tiene el objetivo de comprender la codificación de los filtros convolucionales de la primera capa de las redes convolucionales, y proponer un nuevo método de entrenamiento para los filtros de esa capa. Se comenzó por realizar un análisis exploratorio de datos, tomando como punto de partida los filtros aprendidos sobre ImageNet por diversos modelos de redes convolucionales de alto rendimiento. Se indagó sobre las características del espacio de soluciones a las que los diferentes modelos arribaron y se exploraron posibles restricciones sobre este espacio producto del entrenamiento al que fueron expuestos. En el cuerpo principal del trabajo, se ensayaron dos metodologías para la obtención de filtros para una primera capa convolucional. Se aplicaron los algoritmos de agrupamiento K-Means y de reducción de dimensionalidad PCA para generar los filtros de la primera capa convolucional de una red convolucional, de forma no supervisada. El alcance de este trabajo se limitó a la búsqueda de métodos para entrenar únicamente la primera capa de la red, dejando para futuros trabajos la aplicación a capas subsiguientes. Para realizar los experimentos, se emplearon dos conjuntos de datos ampliamente utilizados en la literatura: CIFAR10 y Mnist-Fashion. Asimismo, se tomaron, a lo largo de todos los experimentos, dos modelos de redes convolucionales. Uno de ellos, SimpleConv, fue construido de forma ad-hoc por el tesista. El otro modelo utilizado es EfficientNet V2 Small, de amplia aceptación y utilización en la literatura. Se evaluaron los resultados de forma comparativa al método tradicional de entrenamiento por Descenso por Gradientes y Backpropagation para los dos conjuntos de datos y las dos arquitecturas mencionadas. Finalmente se realizó una serie de experimentos confirmatorios, llevando a cabo un análisis de los parámetros generados por los dos algoritmos alternativos de entrenamiento. Asimismo, se analizaron los cambios experimentados por los filtros durante el proceso de entrenamiento por Descenso por Gradientes y Backpropagation, condicionados a las características del algoritmo utilizado para su inicialización. Este trabajo aporta dos métodos novedosos de entrenamiento para la primera capa de filtros de una red convolucional. Los experimentos demuestran que ambos métodos producen filtros adecuados para una primera capa en la tarea de clasificación de imágenes sobre las configuraciones ensayadas. Bajo estas circunstancias, ambos métodos obtienen desempeños superiores a los obtenidos por el método tradicional de entrenamiento de descenso por gradientes.
During the course of the last decade, artificial neural networks have become the forefront of the field of artificial intelligence. Their ability to model highly complex functions has been repeatedly demonstrated through continuous state-of-the-art advancements across virtually all domains of the field. Convolutional networks, in particular, have revolutionized the field of computer vision and have been successfully employed in diverse problem domains such as natural language processing and time series modeling. However, despite the immense progress made in a short span of time, artificial neural networks remain, in many aspects, mysterious "black boxes." Due to the large number of processing units they consist of, interpreting the results (inferences) they produce is extremely complex. Additionally, they exhibit efficiency issues, particularly during training. The computational resources required to train a network with billions of parameters are immense, resulting in significant economic and ecological impacts. Moreover, this inefficiency acts as a barrier to the widespread accessibility of this technology. This work aims to understand the encoding of the convolutional filters in the first layer of convolutional networks and propose a novel training method for those filters. It begins with an exploratory data analysis, starting from the filters learned on ImageNet by various high-performance convolutional network models. The characteristics of the solution space reached by different models are investigated, and potential training-induced restrictions on this space are explored. In the main body of the work, two methodologies for obtaining filters for a first convolutional layer are tested. The K-Means clustering and Principal Component Analysis (PCA) algorithms are applied to generate the filters of the first convolutional layer of a convolutional network in an unsupervised manner. The scope of this work is limited to finding methods to train only the first layer of the network, leaving the application to subsequent layers for future research. Two widely-used datasets in the literature, CIFAR10 and Mnist-Fashion, were employed for the experiments. Additionally, two convolutional network models were used throughout all the experiments. One of them, SimpleConv, was ad-hoc constructed by the thesis author. The other model used is the widely accepted and utilized EfficientNet V2 Small. The results were evaluated comparatively to the traditional training method of Gradient Descent and Backpropagation for the two datasets and the two mentioned architectures. Finally, a series of confirmatory experiments were conducted, analyzing the parameters generated by the two alternative training algorithms. Additionally, the changes experienced by the filters during the Gradient Descent and Backpropagation training process were examined, conditioned by the characteristics of the algorithm used for their initialization. This work introduces two novel training methods for the first layer filters of a convolutional network. The experiments demonstrate that both methods produce suitable filters for a first layer in the image classification task on the tested configurations. Under these circumstances, both methods achieve superior performance compared to the traditional Gradient Descent training method.
Fil: Rabinovich, Federico Ezequiel. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.
Nivel de accesibilidad
acceso abierto
Condiciones de uso
https://creativecommons.org/licenses/by-nc-sa/2.5/ar
Repositorio
Biblioteca Digital (UBA-FCEN)
Institución
Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
OAI Identificador
tesis:tesis_n7470_Rabinovich

id BDUBAFCEN_c14af7a6fef33f3295cd275ec7f054ea
oai_identifier_str tesis:tesis_n7470_Rabinovich
network_acronym_str BDUBAFCEN
repository_id_str 1896
network_name_str Biblioteca Digital (UBA-FCEN)
spelling Métodos de entrenamiento basados en agrupamiento para capas convolucionales en redes neuronalesClustering-Based Training Methods for Convolutional Layers in Neural NetworksRabinovich, Federico EzequielDurante el transcurso de la última década, las redes neuronales artificiales se han convertido en la punta de lanza del campo de la inteligencia artificial. Su capacidad para modelar funciones de altísima complejidad ha quedado demostrada una y otra vez con sus permanentes avances del estado del arte en prácticamente todos los dominios del área. Las redes convolucionales en particular, han revolucionado el campo de la visión artificial y han sido empleadas con éxito en problemáticas tan disímiles como el procesamiento de lenguaje natural y el modelado de series temporales. No obstante los inmensos avances producidos en tan pocos años, las redes neuronales artificiales continúan siendo, en muchos aspectos, misteriosas “cajas negras”. Debido a la cantidad de unidades de procesamiento que las conforman, la interpretación de los resultados (inferencias) que producen resulta extremadamente compleja. Adicionalmente, presentan problemas de eficiencia, particularmente durante su entrenamiento. Los recursos computacionales necesarios para entrenar una red de miles de millones de parámetros son inmensos, generando un impacto económico y ecológico significativos. Asimismo, esta ineficiencia actúa como limitante al libre acceso a esta tecnología. Este trabajo tiene el objetivo de comprender la codificación de los filtros convolucionales de la primera capa de las redes convolucionales, y proponer un nuevo método de entrenamiento para los filtros de esa capa. Se comenzó por realizar un análisis exploratorio de datos, tomando como punto de partida los filtros aprendidos sobre ImageNet por diversos modelos de redes convolucionales de alto rendimiento. Se indagó sobre las características del espacio de soluciones a las que los diferentes modelos arribaron y se exploraron posibles restricciones sobre este espacio producto del entrenamiento al que fueron expuestos. En el cuerpo principal del trabajo, se ensayaron dos metodologías para la obtención de filtros para una primera capa convolucional. Se aplicaron los algoritmos de agrupamiento K-Means y de reducción de dimensionalidad PCA para generar los filtros de la primera capa convolucional de una red convolucional, de forma no supervisada. El alcance de este trabajo se limitó a la búsqueda de métodos para entrenar únicamente la primera capa de la red, dejando para futuros trabajos la aplicación a capas subsiguientes. Para realizar los experimentos, se emplearon dos conjuntos de datos ampliamente utilizados en la literatura: CIFAR10 y Mnist-Fashion. Asimismo, se tomaron, a lo largo de todos los experimentos, dos modelos de redes convolucionales. Uno de ellos, SimpleConv, fue construido de forma ad-hoc por el tesista. El otro modelo utilizado es EfficientNet V2 Small, de amplia aceptación y utilización en la literatura. Se evaluaron los resultados de forma comparativa al método tradicional de entrenamiento por Descenso por Gradientes y Backpropagation para los dos conjuntos de datos y las dos arquitecturas mencionadas. Finalmente se realizó una serie de experimentos confirmatorios, llevando a cabo un análisis de los parámetros generados por los dos algoritmos alternativos de entrenamiento. Asimismo, se analizaron los cambios experimentados por los filtros durante el proceso de entrenamiento por Descenso por Gradientes y Backpropagation, condicionados a las características del algoritmo utilizado para su inicialización. Este trabajo aporta dos métodos novedosos de entrenamiento para la primera capa de filtros de una red convolucional. Los experimentos demuestran que ambos métodos producen filtros adecuados para una primera capa en la tarea de clasificación de imágenes sobre las configuraciones ensayadas. Bajo estas circunstancias, ambos métodos obtienen desempeños superiores a los obtenidos por el método tradicional de entrenamiento de descenso por gradientes.During the course of the last decade, artificial neural networks have become the forefront of the field of artificial intelligence. Their ability to model highly complex functions has been repeatedly demonstrated through continuous state-of-the-art advancements across virtually all domains of the field. Convolutional networks, in particular, have revolutionized the field of computer vision and have been successfully employed in diverse problem domains such as natural language processing and time series modeling. However, despite the immense progress made in a short span of time, artificial neural networks remain, in many aspects, mysterious "black boxes." Due to the large number of processing units they consist of, interpreting the results (inferences) they produce is extremely complex. Additionally, they exhibit efficiency issues, particularly during training. The computational resources required to train a network with billions of parameters are immense, resulting in significant economic and ecological impacts. Moreover, this inefficiency acts as a barrier to the widespread accessibility of this technology. This work aims to understand the encoding of the convolutional filters in the first layer of convolutional networks and propose a novel training method for those filters. It begins with an exploratory data analysis, starting from the filters learned on ImageNet by various high-performance convolutional network models. The characteristics of the solution space reached by different models are investigated, and potential training-induced restrictions on this space are explored. In the main body of the work, two methodologies for obtaining filters for a first convolutional layer are tested. The K-Means clustering and Principal Component Analysis (PCA) algorithms are applied to generate the filters of the first convolutional layer of a convolutional network in an unsupervised manner. The scope of this work is limited to finding methods to train only the first layer of the network, leaving the application to subsequent layers for future research. Two widely-used datasets in the literature, CIFAR10 and Mnist-Fashion, were employed for the experiments. Additionally, two convolutional network models were used throughout all the experiments. One of them, SimpleConv, was ad-hoc constructed by the thesis author. The other model used is the widely accepted and utilized EfficientNet V2 Small. The results were evaluated comparatively to the traditional training method of Gradient Descent and Backpropagation for the two datasets and the two mentioned architectures. Finally, a series of confirmatory experiments were conducted, analyzing the parameters generated by the two alternative training algorithms. Additionally, the changes experienced by the filters during the Gradient Descent and Backpropagation training process were examined, conditioned by the characteristics of the algorithm used for their initialization. This work introduces two novel training methods for the first layer filters of a convolutional network. The experiments demonstrate that both methods produce suitable filters for a first layer in the image classification task on the tested configurations. Under these circumstances, both methods achieve superior performance compared to the traditional Gradient Descent training method.Fil: Rabinovich, Federico Ezequiel. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.Universidad de Buenos Aires. Facultad de Ciencias Exactas y NaturalesQuiroga, Facundo ManuelRonchetti, Franco2023-12-12info:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_bdccinfo:ar-repo/semantics/tesisDeMaestriaapplication/pdfhttps://hdl.handle.net/20.500.12110/tesis_n7470_Rabinovichspainfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc-sa/2.5/arreponame:Biblioteca Digital (UBA-FCEN)instname:Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturalesinstacron:UBA-FCEN2025-09-29T13:41:39Ztesis:tesis_n7470_RabinovichInstitucionalhttps://digital.bl.fcen.uba.ar/Universidad públicaNo correspondehttps://digital.bl.fcen.uba.ar/cgi-bin/oaiserver.cgiana@bl.fcen.uba.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:18962025-09-29 13:41:40.479Biblioteca Digital (UBA-FCEN) - Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturalesfalse
dc.title.none.fl_str_mv Métodos de entrenamiento basados en agrupamiento para capas convolucionales en redes neuronales
Clustering-Based Training Methods for Convolutional Layers in Neural Networks
title Métodos de entrenamiento basados en agrupamiento para capas convolucionales en redes neuronales
spellingShingle Métodos de entrenamiento basados en agrupamiento para capas convolucionales en redes neuronales
Rabinovich, Federico Ezequiel
title_short Métodos de entrenamiento basados en agrupamiento para capas convolucionales en redes neuronales
title_full Métodos de entrenamiento basados en agrupamiento para capas convolucionales en redes neuronales
title_fullStr Métodos de entrenamiento basados en agrupamiento para capas convolucionales en redes neuronales
title_full_unstemmed Métodos de entrenamiento basados en agrupamiento para capas convolucionales en redes neuronales
title_sort Métodos de entrenamiento basados en agrupamiento para capas convolucionales en redes neuronales
dc.creator.none.fl_str_mv Rabinovich, Federico Ezequiel
author Rabinovich, Federico Ezequiel
author_facet Rabinovich, Federico Ezequiel
author_role author
dc.contributor.none.fl_str_mv Quiroga, Facundo Manuel
Ronchetti, Franco
dc.description.none.fl_txt_mv Durante el transcurso de la última década, las redes neuronales artificiales se han convertido en la punta de lanza del campo de la inteligencia artificial. Su capacidad para modelar funciones de altísima complejidad ha quedado demostrada una y otra vez con sus permanentes avances del estado del arte en prácticamente todos los dominios del área. Las redes convolucionales en particular, han revolucionado el campo de la visión artificial y han sido empleadas con éxito en problemáticas tan disímiles como el procesamiento de lenguaje natural y el modelado de series temporales. No obstante los inmensos avances producidos en tan pocos años, las redes neuronales artificiales continúan siendo, en muchos aspectos, misteriosas “cajas negras”. Debido a la cantidad de unidades de procesamiento que las conforman, la interpretación de los resultados (inferencias) que producen resulta extremadamente compleja. Adicionalmente, presentan problemas de eficiencia, particularmente durante su entrenamiento. Los recursos computacionales necesarios para entrenar una red de miles de millones de parámetros son inmensos, generando un impacto económico y ecológico significativos. Asimismo, esta ineficiencia actúa como limitante al libre acceso a esta tecnología. Este trabajo tiene el objetivo de comprender la codificación de los filtros convolucionales de la primera capa de las redes convolucionales, y proponer un nuevo método de entrenamiento para los filtros de esa capa. Se comenzó por realizar un análisis exploratorio de datos, tomando como punto de partida los filtros aprendidos sobre ImageNet por diversos modelos de redes convolucionales de alto rendimiento. Se indagó sobre las características del espacio de soluciones a las que los diferentes modelos arribaron y se exploraron posibles restricciones sobre este espacio producto del entrenamiento al que fueron expuestos. En el cuerpo principal del trabajo, se ensayaron dos metodologías para la obtención de filtros para una primera capa convolucional. Se aplicaron los algoritmos de agrupamiento K-Means y de reducción de dimensionalidad PCA para generar los filtros de la primera capa convolucional de una red convolucional, de forma no supervisada. El alcance de este trabajo se limitó a la búsqueda de métodos para entrenar únicamente la primera capa de la red, dejando para futuros trabajos la aplicación a capas subsiguientes. Para realizar los experimentos, se emplearon dos conjuntos de datos ampliamente utilizados en la literatura: CIFAR10 y Mnist-Fashion. Asimismo, se tomaron, a lo largo de todos los experimentos, dos modelos de redes convolucionales. Uno de ellos, SimpleConv, fue construido de forma ad-hoc por el tesista. El otro modelo utilizado es EfficientNet V2 Small, de amplia aceptación y utilización en la literatura. Se evaluaron los resultados de forma comparativa al método tradicional de entrenamiento por Descenso por Gradientes y Backpropagation para los dos conjuntos de datos y las dos arquitecturas mencionadas. Finalmente se realizó una serie de experimentos confirmatorios, llevando a cabo un análisis de los parámetros generados por los dos algoritmos alternativos de entrenamiento. Asimismo, se analizaron los cambios experimentados por los filtros durante el proceso de entrenamiento por Descenso por Gradientes y Backpropagation, condicionados a las características del algoritmo utilizado para su inicialización. Este trabajo aporta dos métodos novedosos de entrenamiento para la primera capa de filtros de una red convolucional. Los experimentos demuestran que ambos métodos producen filtros adecuados para una primera capa en la tarea de clasificación de imágenes sobre las configuraciones ensayadas. Bajo estas circunstancias, ambos métodos obtienen desempeños superiores a los obtenidos por el método tradicional de entrenamiento de descenso por gradientes.
During the course of the last decade, artificial neural networks have become the forefront of the field of artificial intelligence. Their ability to model highly complex functions has been repeatedly demonstrated through continuous state-of-the-art advancements across virtually all domains of the field. Convolutional networks, in particular, have revolutionized the field of computer vision and have been successfully employed in diverse problem domains such as natural language processing and time series modeling. However, despite the immense progress made in a short span of time, artificial neural networks remain, in many aspects, mysterious "black boxes." Due to the large number of processing units they consist of, interpreting the results (inferences) they produce is extremely complex. Additionally, they exhibit efficiency issues, particularly during training. The computational resources required to train a network with billions of parameters are immense, resulting in significant economic and ecological impacts. Moreover, this inefficiency acts as a barrier to the widespread accessibility of this technology. This work aims to understand the encoding of the convolutional filters in the first layer of convolutional networks and propose a novel training method for those filters. It begins with an exploratory data analysis, starting from the filters learned on ImageNet by various high-performance convolutional network models. The characteristics of the solution space reached by different models are investigated, and potential training-induced restrictions on this space are explored. In the main body of the work, two methodologies for obtaining filters for a first convolutional layer are tested. The K-Means clustering and Principal Component Analysis (PCA) algorithms are applied to generate the filters of the first convolutional layer of a convolutional network in an unsupervised manner. The scope of this work is limited to finding methods to train only the first layer of the network, leaving the application to subsequent layers for future research. Two widely-used datasets in the literature, CIFAR10 and Mnist-Fashion, were employed for the experiments. Additionally, two convolutional network models were used throughout all the experiments. One of them, SimpleConv, was ad-hoc constructed by the thesis author. The other model used is the widely accepted and utilized EfficientNet V2 Small. The results were evaluated comparatively to the traditional training method of Gradient Descent and Backpropagation for the two datasets and the two mentioned architectures. Finally, a series of confirmatory experiments were conducted, analyzing the parameters generated by the two alternative training algorithms. Additionally, the changes experienced by the filters during the Gradient Descent and Backpropagation training process were examined, conditioned by the characteristics of the algorithm used for their initialization. This work introduces two novel training methods for the first layer filters of a convolutional network. The experiments demonstrate that both methods produce suitable filters for a first layer in the image classification task on the tested configurations. Under these circumstances, both methods achieve superior performance compared to the traditional Gradient Descent training method.
Fil: Rabinovich, Federico Ezequiel. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.
description Durante el transcurso de la última década, las redes neuronales artificiales se han convertido en la punta de lanza del campo de la inteligencia artificial. Su capacidad para modelar funciones de altísima complejidad ha quedado demostrada una y otra vez con sus permanentes avances del estado del arte en prácticamente todos los dominios del área. Las redes convolucionales en particular, han revolucionado el campo de la visión artificial y han sido empleadas con éxito en problemáticas tan disímiles como el procesamiento de lenguaje natural y el modelado de series temporales. No obstante los inmensos avances producidos en tan pocos años, las redes neuronales artificiales continúan siendo, en muchos aspectos, misteriosas “cajas negras”. Debido a la cantidad de unidades de procesamiento que las conforman, la interpretación de los resultados (inferencias) que producen resulta extremadamente compleja. Adicionalmente, presentan problemas de eficiencia, particularmente durante su entrenamiento. Los recursos computacionales necesarios para entrenar una red de miles de millones de parámetros son inmensos, generando un impacto económico y ecológico significativos. Asimismo, esta ineficiencia actúa como limitante al libre acceso a esta tecnología. Este trabajo tiene el objetivo de comprender la codificación de los filtros convolucionales de la primera capa de las redes convolucionales, y proponer un nuevo método de entrenamiento para los filtros de esa capa. Se comenzó por realizar un análisis exploratorio de datos, tomando como punto de partida los filtros aprendidos sobre ImageNet por diversos modelos de redes convolucionales de alto rendimiento. Se indagó sobre las características del espacio de soluciones a las que los diferentes modelos arribaron y se exploraron posibles restricciones sobre este espacio producto del entrenamiento al que fueron expuestos. En el cuerpo principal del trabajo, se ensayaron dos metodologías para la obtención de filtros para una primera capa convolucional. Se aplicaron los algoritmos de agrupamiento K-Means y de reducción de dimensionalidad PCA para generar los filtros de la primera capa convolucional de una red convolucional, de forma no supervisada. El alcance de este trabajo se limitó a la búsqueda de métodos para entrenar únicamente la primera capa de la red, dejando para futuros trabajos la aplicación a capas subsiguientes. Para realizar los experimentos, se emplearon dos conjuntos de datos ampliamente utilizados en la literatura: CIFAR10 y Mnist-Fashion. Asimismo, se tomaron, a lo largo de todos los experimentos, dos modelos de redes convolucionales. Uno de ellos, SimpleConv, fue construido de forma ad-hoc por el tesista. El otro modelo utilizado es EfficientNet V2 Small, de amplia aceptación y utilización en la literatura. Se evaluaron los resultados de forma comparativa al método tradicional de entrenamiento por Descenso por Gradientes y Backpropagation para los dos conjuntos de datos y las dos arquitecturas mencionadas. Finalmente se realizó una serie de experimentos confirmatorios, llevando a cabo un análisis de los parámetros generados por los dos algoritmos alternativos de entrenamiento. Asimismo, se analizaron los cambios experimentados por los filtros durante el proceso de entrenamiento por Descenso por Gradientes y Backpropagation, condicionados a las características del algoritmo utilizado para su inicialización. Este trabajo aporta dos métodos novedosos de entrenamiento para la primera capa de filtros de una red convolucional. Los experimentos demuestran que ambos métodos producen filtros adecuados para una primera capa en la tarea de clasificación de imágenes sobre las configuraciones ensayadas. Bajo estas circunstancias, ambos métodos obtienen desempeños superiores a los obtenidos por el método tradicional de entrenamiento de descenso por gradientes.
publishDate 2023
dc.date.none.fl_str_mv 2023-12-12
dc.type.none.fl_str_mv info:eu-repo/semantics/masterThesis
info:eu-repo/semantics/publishedVersion
http://purl.org/coar/resource_type/c_bdcc
info:ar-repo/semantics/tesisDeMaestria
format masterThesis
status_str publishedVersion
dc.identifier.none.fl_str_mv https://hdl.handle.net/20.500.12110/tesis_n7470_Rabinovich
url https://hdl.handle.net/20.500.12110/tesis_n7470_Rabinovich
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
https://creativecommons.org/licenses/by-nc-sa/2.5/ar
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by-nc-sa/2.5/ar
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales
publisher.none.fl_str_mv Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales
dc.source.none.fl_str_mv reponame:Biblioteca Digital (UBA-FCEN)
instname:Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
instacron:UBA-FCEN
reponame_str Biblioteca Digital (UBA-FCEN)
collection Biblioteca Digital (UBA-FCEN)
instname_str Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
instacron_str UBA-FCEN
institution UBA-FCEN
repository.name.fl_str_mv Biblioteca Digital (UBA-FCEN) - Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
repository.mail.fl_str_mv ana@bl.fcen.uba.ar
_version_ 1844618709812903937
score 13.069144