Redes neuronales artificiales

Autores
Repetur, Ariel Emiliano
Año de publicación
2019
Idioma
español castellano
Tipo de recurso
tesis de grado
Estado
versión aceptada
Colaborador/a o director/a de tesis
Lotito, Pablo A.
Baez, Guido R.
Descripción
Nuestra primera implementación del perceptrón multicapa mostró un rendimiento inicial aceptable para el problema de clasificación de dígitos escritos a mano, pero también mostró cierta sensibilidad a las condiciones iniciales y lentitud durante el proceso de aprendizaje. En este contexto, el reemplazo de la función costo cuadrático por la entropía cruzada nos brindó una mejora importante en la velocidad del entrenamiento. Otro aspecto que probo ser muy importante para mejorar el aprendizaje de la red fue la elección de un método apropiado para inicializar los parámetros. Esto, combinado con la utilización de las unidades tanh, nos permitió obtener resultados muy superiores a los iniciales, tanto en la velocidad del entrenamiento como en la exactitud nal, superior al 98 %. En lo que respecta a la elección de las unidades ocultas y de salida, también se examinaron otras posibilidades, como son las unidades ReLU y softmax, pero no se observaron mejoras substanciales para nuestro problema. Finalmente se logro una mejora notable en el rendimiento al cambiar la arquitectura, empleando una red neuronal convolucional. Este tipo de redes funcionan particularmente bien cuando son aplicadas a imágenes, ya que su arquitectura tiene en cuenta la estructura espacial de los datos que se procesan. El resultado fue una exactitud del 99 %, superando las barreras que nos detenían con la arquitectura utilizada previamente. Incluso es factible mejorar estos resultados aun mas combinando tecnicas de regularizacion como dropout y aumento de datos, las cuales han sido utilizadas con éxito para obtener exactitudes superiores al 99:5 %. En la actualidad las redes convolucionales se utilizan ampliamente en el campo de visión artificial, aplicadas a tareas como clasificación, reconocimiento de objetos en imagenes y subtitulado de imágenes. Las arquitecturas se han vuelto cada vez mas profundas, con algunas de las mas recientes superando las 100 capas. El aumento de la profundidad, junto con algunas mejoras sobre la red convolucional básica, han permitido atacar problemas cada vez más complejos. En este sentido, lo logrado con el conjunto MNIST representa apenas la punta del iceberg en t erminos de las capacidades de este tipo de esquemas. Uno de los desafíos mas populares hoy en día en el reconocimiento visual de objetos es el provisto por ImageNet. Este conjunto contiene mas de 14 millones de imágenes de diversos objetos y 20000 categorías con las que clasi carlos. En 2012 se dio un paso importante en este problema con la introducción de la AlexNet, que logro reducir el error al 15%. Desde entonces se han logrado mejoras cada año, obteniendo desde el 2017 una exactitud por encima del 95 %, e incluso esto no es mas que solo un pequeño vistazo al panorama actual. Mas allá de las redes neuronales convolucionales existen otras arquitecturas que no han sido vistas en este trabajo, como pueden ser las redes neuronales recursivas o los autoencoders, por mencionar algunas. Estas se aplican en diversos campos, como puede ser en el reconocimiento de voz, el diagnostico de enfermedades, la predicción de tendencias, el catalogado de contenido, la publicidad dirigida, etc. Se puede apreciar que el panorama de aplicaciones para las redes neuronales es amplio y variado, y este trabajo no es mas que una mirada sobre algunas de las ideas sobre las que se funda el campo de deep learning, sirviendo de base para la exploración de técnicas mas avanzadas que permitan la resolución de problemas mas complejos.
Fil: Repetur, Ariel E. Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas; Argentina.
Fil: Lotito, Pablo A. Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas; Argentina.
Fil: Baez, Guido R.Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas; Argentina.
Materia
Diagnostico de enfermedades
Ingeniería de sistemas
Matemáticas
Neuronas Sigmoides
Redes neuronales
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-nd/2.5/ar/
Repositorio
RIDAA (UNICEN)
Institución
Universidad Nacional del Centro de la Provincia de Buenos Aires
OAI Identificador
oai:ridaa.unicen.edu.ar:123456789/2058

id RIDUNICEN_94a7d65ace507aabd26de97b2552a4a6
oai_identifier_str oai:ridaa.unicen.edu.ar:123456789/2058
network_acronym_str RIDUNICEN
repository_id_str a
network_name_str RIDAA (UNICEN)
spelling Redes neuronales artificialesRepetur, Ariel EmilianoDiagnostico de enfermedadesIngeniería de sistemasMatemáticasNeuronas SigmoidesRedes neuronalesNuestra primera implementación del perceptrón multicapa mostró un rendimiento inicial aceptable para el problema de clasificación de dígitos escritos a mano, pero también mostró cierta sensibilidad a las condiciones iniciales y lentitud durante el proceso de aprendizaje. En este contexto, el reemplazo de la función costo cuadrático por la entropía cruzada nos brindó una mejora importante en la velocidad del entrenamiento. Otro aspecto que probo ser muy importante para mejorar el aprendizaje de la red fue la elección de un método apropiado para inicializar los parámetros. Esto, combinado con la utilización de las unidades tanh, nos permitió obtener resultados muy superiores a los iniciales, tanto en la velocidad del entrenamiento como en la exactitud nal, superior al 98 %. En lo que respecta a la elección de las unidades ocultas y de salida, también se examinaron otras posibilidades, como son las unidades ReLU y softmax, pero no se observaron mejoras substanciales para nuestro problema. Finalmente se logro una mejora notable en el rendimiento al cambiar la arquitectura, empleando una red neuronal convolucional. Este tipo de redes funcionan particularmente bien cuando son aplicadas a imágenes, ya que su arquitectura tiene en cuenta la estructura espacial de los datos que se procesan. El resultado fue una exactitud del 99 %, superando las barreras que nos detenían con la arquitectura utilizada previamente. Incluso es factible mejorar estos resultados aun mas combinando tecnicas de regularizacion como dropout y aumento de datos, las cuales han sido utilizadas con éxito para obtener exactitudes superiores al 99:5 %. En la actualidad las redes convolucionales se utilizan ampliamente en el campo de visión artificial, aplicadas a tareas como clasificación, reconocimiento de objetos en imagenes y subtitulado de imágenes. Las arquitecturas se han vuelto cada vez mas profundas, con algunas de las mas recientes superando las 100 capas. El aumento de la profundidad, junto con algunas mejoras sobre la red convolucional básica, han permitido atacar problemas cada vez más complejos. En este sentido, lo logrado con el conjunto MNIST representa apenas la punta del iceberg en t erminos de las capacidades de este tipo de esquemas. Uno de los desafíos mas populares hoy en día en el reconocimiento visual de objetos es el provisto por ImageNet. Este conjunto contiene mas de 14 millones de imágenes de diversos objetos y 20000 categorías con las que clasi carlos. En 2012 se dio un paso importante en este problema con la introducción de la AlexNet, que logro reducir el error al 15%. Desde entonces se han logrado mejoras cada año, obteniendo desde el 2017 una exactitud por encima del 95 %, e incluso esto no es mas que solo un pequeño vistazo al panorama actual. Mas allá de las redes neuronales convolucionales existen otras arquitecturas que no han sido vistas en este trabajo, como pueden ser las redes neuronales recursivas o los autoencoders, por mencionar algunas. Estas se aplican en diversos campos, como puede ser en el reconocimiento de voz, el diagnostico de enfermedades, la predicción de tendencias, el catalogado de contenido, la publicidad dirigida, etc. Se puede apreciar que el panorama de aplicaciones para las redes neuronales es amplio y variado, y este trabajo no es mas que una mirada sobre algunas de las ideas sobre las que se funda el campo de deep learning, sirviendo de base para la exploración de técnicas mas avanzadas que permitan la resolución de problemas mas complejos.Fil: Repetur, Ariel E. Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas; Argentina.Fil: Lotito, Pablo A. Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas; Argentina.Fil: Baez, Guido R.Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas; Argentina.Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias ExactasLotito, Pablo A.Baez, Guido R.2019-042019-08-13T14:17:01Z2019-08-13T14:17:01Zinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1finfo:ar-repo/semantics/tesisDeGradoapplication/pdfapplication/pdfhttps://www.ridaa.unicen.edu.ar/handle/123456789/2058spahttp://creativecommons.org/licenses/by-nc-nd/2.5/ar/info:eu-repo/semantics/openAccessreponame:RIDAA (UNICEN)instname:Universidad Nacional del Centro de la Provincia de Buenos Aires2025-09-29T13:41:23Zoai:ridaa.unicen.edu.ar:123456789/2058instacron:UNICENInstitucionalhttps://www.ridaa.unicen.edu.ar/Universidad públicaNo correspondehttps://www.ridaa.unicen.edu.ar/oailleiboff@rec.unicen.edu.ar;gimeroni@rec.unicen.edu.ar;lvarela@rec.unicen.edu.ar ;ArgentinaNo correspondeNo correspondeNo correspondeopendoar:a2025-09-29 13:41:23.759RIDAA (UNICEN) - Universidad Nacional del Centro de la Provincia de Buenos Airesfalse
dc.title.none.fl_str_mv Redes neuronales artificiales
title Redes neuronales artificiales
spellingShingle Redes neuronales artificiales
Repetur, Ariel Emiliano
Diagnostico de enfermedades
Ingeniería de sistemas
Matemáticas
Neuronas Sigmoides
Redes neuronales
title_short Redes neuronales artificiales
title_full Redes neuronales artificiales
title_fullStr Redes neuronales artificiales
title_full_unstemmed Redes neuronales artificiales
title_sort Redes neuronales artificiales
dc.creator.none.fl_str_mv Repetur, Ariel Emiliano
author Repetur, Ariel Emiliano
author_facet Repetur, Ariel Emiliano
author_role author
dc.contributor.none.fl_str_mv Lotito, Pablo A.
Baez, Guido R.
dc.subject.none.fl_str_mv Diagnostico de enfermedades
Ingeniería de sistemas
Matemáticas
Neuronas Sigmoides
Redes neuronales
topic Diagnostico de enfermedades
Ingeniería de sistemas
Matemáticas
Neuronas Sigmoides
Redes neuronales
dc.description.none.fl_txt_mv Nuestra primera implementación del perceptrón multicapa mostró un rendimiento inicial aceptable para el problema de clasificación de dígitos escritos a mano, pero también mostró cierta sensibilidad a las condiciones iniciales y lentitud durante el proceso de aprendizaje. En este contexto, el reemplazo de la función costo cuadrático por la entropía cruzada nos brindó una mejora importante en la velocidad del entrenamiento. Otro aspecto que probo ser muy importante para mejorar el aprendizaje de la red fue la elección de un método apropiado para inicializar los parámetros. Esto, combinado con la utilización de las unidades tanh, nos permitió obtener resultados muy superiores a los iniciales, tanto en la velocidad del entrenamiento como en la exactitud nal, superior al 98 %. En lo que respecta a la elección de las unidades ocultas y de salida, también se examinaron otras posibilidades, como son las unidades ReLU y softmax, pero no se observaron mejoras substanciales para nuestro problema. Finalmente se logro una mejora notable en el rendimiento al cambiar la arquitectura, empleando una red neuronal convolucional. Este tipo de redes funcionan particularmente bien cuando son aplicadas a imágenes, ya que su arquitectura tiene en cuenta la estructura espacial de los datos que se procesan. El resultado fue una exactitud del 99 %, superando las barreras que nos detenían con la arquitectura utilizada previamente. Incluso es factible mejorar estos resultados aun mas combinando tecnicas de regularizacion como dropout y aumento de datos, las cuales han sido utilizadas con éxito para obtener exactitudes superiores al 99:5 %. En la actualidad las redes convolucionales se utilizan ampliamente en el campo de visión artificial, aplicadas a tareas como clasificación, reconocimiento de objetos en imagenes y subtitulado de imágenes. Las arquitecturas se han vuelto cada vez mas profundas, con algunas de las mas recientes superando las 100 capas. El aumento de la profundidad, junto con algunas mejoras sobre la red convolucional básica, han permitido atacar problemas cada vez más complejos. En este sentido, lo logrado con el conjunto MNIST representa apenas la punta del iceberg en t erminos de las capacidades de este tipo de esquemas. Uno de los desafíos mas populares hoy en día en el reconocimiento visual de objetos es el provisto por ImageNet. Este conjunto contiene mas de 14 millones de imágenes de diversos objetos y 20000 categorías con las que clasi carlos. En 2012 se dio un paso importante en este problema con la introducción de la AlexNet, que logro reducir el error al 15%. Desde entonces se han logrado mejoras cada año, obteniendo desde el 2017 una exactitud por encima del 95 %, e incluso esto no es mas que solo un pequeño vistazo al panorama actual. Mas allá de las redes neuronales convolucionales existen otras arquitecturas que no han sido vistas en este trabajo, como pueden ser las redes neuronales recursivas o los autoencoders, por mencionar algunas. Estas se aplican en diversos campos, como puede ser en el reconocimiento de voz, el diagnostico de enfermedades, la predicción de tendencias, el catalogado de contenido, la publicidad dirigida, etc. Se puede apreciar que el panorama de aplicaciones para las redes neuronales es amplio y variado, y este trabajo no es mas que una mirada sobre algunas de las ideas sobre las que se funda el campo de deep learning, sirviendo de base para la exploración de técnicas mas avanzadas que permitan la resolución de problemas mas complejos.
Fil: Repetur, Ariel E. Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas; Argentina.
Fil: Lotito, Pablo A. Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas; Argentina.
Fil: Baez, Guido R.Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas; Argentina.
description Nuestra primera implementación del perceptrón multicapa mostró un rendimiento inicial aceptable para el problema de clasificación de dígitos escritos a mano, pero también mostró cierta sensibilidad a las condiciones iniciales y lentitud durante el proceso de aprendizaje. En este contexto, el reemplazo de la función costo cuadrático por la entropía cruzada nos brindó una mejora importante en la velocidad del entrenamiento. Otro aspecto que probo ser muy importante para mejorar el aprendizaje de la red fue la elección de un método apropiado para inicializar los parámetros. Esto, combinado con la utilización de las unidades tanh, nos permitió obtener resultados muy superiores a los iniciales, tanto en la velocidad del entrenamiento como en la exactitud nal, superior al 98 %. En lo que respecta a la elección de las unidades ocultas y de salida, también se examinaron otras posibilidades, como son las unidades ReLU y softmax, pero no se observaron mejoras substanciales para nuestro problema. Finalmente se logro una mejora notable en el rendimiento al cambiar la arquitectura, empleando una red neuronal convolucional. Este tipo de redes funcionan particularmente bien cuando son aplicadas a imágenes, ya que su arquitectura tiene en cuenta la estructura espacial de los datos que se procesan. El resultado fue una exactitud del 99 %, superando las barreras que nos detenían con la arquitectura utilizada previamente. Incluso es factible mejorar estos resultados aun mas combinando tecnicas de regularizacion como dropout y aumento de datos, las cuales han sido utilizadas con éxito para obtener exactitudes superiores al 99:5 %. En la actualidad las redes convolucionales se utilizan ampliamente en el campo de visión artificial, aplicadas a tareas como clasificación, reconocimiento de objetos en imagenes y subtitulado de imágenes. Las arquitecturas se han vuelto cada vez mas profundas, con algunas de las mas recientes superando las 100 capas. El aumento de la profundidad, junto con algunas mejoras sobre la red convolucional básica, han permitido atacar problemas cada vez más complejos. En este sentido, lo logrado con el conjunto MNIST representa apenas la punta del iceberg en t erminos de las capacidades de este tipo de esquemas. Uno de los desafíos mas populares hoy en día en el reconocimiento visual de objetos es el provisto por ImageNet. Este conjunto contiene mas de 14 millones de imágenes de diversos objetos y 20000 categorías con las que clasi carlos. En 2012 se dio un paso importante en este problema con la introducción de la AlexNet, que logro reducir el error al 15%. Desde entonces se han logrado mejoras cada año, obteniendo desde el 2017 una exactitud por encima del 95 %, e incluso esto no es mas que solo un pequeño vistazo al panorama actual. Mas allá de las redes neuronales convolucionales existen otras arquitecturas que no han sido vistas en este trabajo, como pueden ser las redes neuronales recursivas o los autoencoders, por mencionar algunas. Estas se aplican en diversos campos, como puede ser en el reconocimiento de voz, el diagnostico de enfermedades, la predicción de tendencias, el catalogado de contenido, la publicidad dirigida, etc. Se puede apreciar que el panorama de aplicaciones para las redes neuronales es amplio y variado, y este trabajo no es mas que una mirada sobre algunas de las ideas sobre las que se funda el campo de deep learning, sirviendo de base para la exploración de técnicas mas avanzadas que permitan la resolución de problemas mas complejos.
publishDate 2019
dc.date.none.fl_str_mv 2019-04
2019-08-13T14:17:01Z
2019-08-13T14:17:01Z
dc.type.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
info:eu-repo/semantics/acceptedVersion
http://purl.org/coar/resource_type/c_7a1f
info:ar-repo/semantics/tesisDeGrado
format bachelorThesis
status_str acceptedVersion
dc.identifier.none.fl_str_mv https://www.ridaa.unicen.edu.ar/handle/123456789/2058
url https://www.ridaa.unicen.edu.ar/handle/123456789/2058
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/ar/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/ar/
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
application/pdf
dc.publisher.none.fl_str_mv Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas
publisher.none.fl_str_mv Universidad Nacional del Centro de la Provincia de Buenos Aires. Facultad de Ciencias Exactas
dc.source.none.fl_str_mv reponame:RIDAA (UNICEN)
instname:Universidad Nacional del Centro de la Provincia de Buenos Aires
reponame_str RIDAA (UNICEN)
collection RIDAA (UNICEN)
instname_str Universidad Nacional del Centro de la Provincia de Buenos Aires
repository.name.fl_str_mv RIDAA (UNICEN) - Universidad Nacional del Centro de la Provincia de Buenos Aires
repository.mail.fl_str_mv lleiboff@rec.unicen.edu.ar;gimeroni@rec.unicen.edu.ar;lvarela@rec.unicen.edu.ar ;
_version_ 1844619030887923712
score 12.559606