Implementación paralela del algoritmo backpropagation en un cluster de computadoras

Autores
Alfonso, Marcelo; Kavka, Carlos; Printista, Alicia Marcela
Año de publicación
2006
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
En la actualidad existe una gran diversidad de arquitecturas paralelas, en donde se han definido muchos modelos de implementación del algoritmo de entrenamiento de redes neuronales backpropagation o propagación hacia atrás. La obtención de una buena performance depende básicamente del modelo de implementación y la arquitectura paralela disponible. El presente trabajo consiste en la definición de un modelo de implementación del algoritmo de backpropagation en un ambiente de programación paralela y su implementación utilizando un cluster de computadoras conectadas entre sí. Esta implementación permite ser utilizada, no necesariamente en una arquitectura paralela especifica en donde la comunicación no introduce un overhead, como ocurre en la utilización de un clustrer de estaciones de trabajo. De esta forma la implementación realizada permite no solo, mejoras en la performance del algoritmo de entrenamiento sino que además mediante la utilización de un parámetro ε que se utiliza para determinar que un cambio en un peso de entrenamiento superior a ε debe ser considerado, en otro caso no.
VII Workshop de Procesamiento Distribuido y Paralelo (WPDP)
Red de Universidades con Carreras en Informática (RedUNCI)
Materia
Ciencias Informáticas
backpropagation
Parallel
Neural nets
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/22683

id SEDICI_2f414f7d6ff136902673e2735b8f71ec
oai_identifier_str oai:sedici.unlp.edu.ar:10915/22683
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Implementación paralela del algoritmo backpropagation en un cluster de computadorasAlfonso, MarceloKavka, CarlosPrintista, Alicia MarcelaCiencias InformáticasbackpropagationParallelNeural netsEn la actualidad existe una gran diversidad de arquitecturas paralelas, en donde se han definido muchos modelos de implementación del algoritmo de entrenamiento de redes neuronales backpropagation o propagación hacia atrás. La obtención de una buena performance depende básicamente del modelo de implementación y la arquitectura paralela disponible. El presente trabajo consiste en la definición de un modelo de implementación del algoritmo de backpropagation en un ambiente de programación paralela y su implementación utilizando un cluster de computadoras conectadas entre sí. Esta implementación permite ser utilizada, no necesariamente en una arquitectura paralela especifica en donde la comunicación no introduce un overhead, como ocurre en la utilización de un clustrer de estaciones de trabajo. De esta forma la implementación realizada permite no solo, mejoras en la performance del algoritmo de entrenamiento sino que además mediante la utilización de un parámetro ε que se utiliza para determinar que un cambio en un peso de entrenamiento superior a ε debe ser considerado, en otro caso no.VII Workshop de Procesamiento Distribuido y Paralelo (WPDP)Red de Universidades con Carreras en Informática (RedUNCI)2006-10info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdf1424-1435http://sedici.unlp.edu.ar/handle/10915/22683spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/2.5/ar/Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-03T10:27:58Zoai:sedici.unlp.edu.ar:10915/22683Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-03 10:27:58.531SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Implementación paralela del algoritmo backpropagation en un cluster de computadoras
title Implementación paralela del algoritmo backpropagation en un cluster de computadoras
spellingShingle Implementación paralela del algoritmo backpropagation en un cluster de computadoras
Alfonso, Marcelo
Ciencias Informáticas
backpropagation
Parallel
Neural nets
title_short Implementación paralela del algoritmo backpropagation en un cluster de computadoras
title_full Implementación paralela del algoritmo backpropagation en un cluster de computadoras
title_fullStr Implementación paralela del algoritmo backpropagation en un cluster de computadoras
title_full_unstemmed Implementación paralela del algoritmo backpropagation en un cluster de computadoras
title_sort Implementación paralela del algoritmo backpropagation en un cluster de computadoras
dc.creator.none.fl_str_mv Alfonso, Marcelo
Kavka, Carlos
Printista, Alicia Marcela
author Alfonso, Marcelo
author_facet Alfonso, Marcelo
Kavka, Carlos
Printista, Alicia Marcela
author_role author
author2 Kavka, Carlos
Printista, Alicia Marcela
author2_role author
author
dc.subject.none.fl_str_mv Ciencias Informáticas
backpropagation
Parallel
Neural nets
topic Ciencias Informáticas
backpropagation
Parallel
Neural nets
dc.description.none.fl_txt_mv En la actualidad existe una gran diversidad de arquitecturas paralelas, en donde se han definido muchos modelos de implementación del algoritmo de entrenamiento de redes neuronales backpropagation o propagación hacia atrás. La obtención de una buena performance depende básicamente del modelo de implementación y la arquitectura paralela disponible. El presente trabajo consiste en la definición de un modelo de implementación del algoritmo de backpropagation en un ambiente de programación paralela y su implementación utilizando un cluster de computadoras conectadas entre sí. Esta implementación permite ser utilizada, no necesariamente en una arquitectura paralela especifica en donde la comunicación no introduce un overhead, como ocurre en la utilización de un clustrer de estaciones de trabajo. De esta forma la implementación realizada permite no solo, mejoras en la performance del algoritmo de entrenamiento sino que además mediante la utilización de un parámetro ε que se utiliza para determinar que un cambio en un peso de entrenamiento superior a ε debe ser considerado, en otro caso no.
VII Workshop de Procesamiento Distribuido y Paralelo (WPDP)
Red de Universidades con Carreras en Informática (RedUNCI)
description En la actualidad existe una gran diversidad de arquitecturas paralelas, en donde se han definido muchos modelos de implementación del algoritmo de entrenamiento de redes neuronales backpropagation o propagación hacia atrás. La obtención de una buena performance depende básicamente del modelo de implementación y la arquitectura paralela disponible. El presente trabajo consiste en la definición de un modelo de implementación del algoritmo de backpropagation en un ambiente de programación paralela y su implementación utilizando un cluster de computadoras conectadas entre sí. Esta implementación permite ser utilizada, no necesariamente en una arquitectura paralela especifica en donde la comunicación no introduce un overhead, como ocurre en la utilización de un clustrer de estaciones de trabajo. De esta forma la implementación realizada permite no solo, mejoras en la performance del algoritmo de entrenamiento sino que además mediante la utilización de un parámetro ε que se utiliza para determinar que un cambio en un peso de entrenamiento superior a ε debe ser considerado, en otro caso no.
publishDate 2006
dc.date.none.fl_str_mv 2006-10
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/22683
url http://sedici.unlp.edu.ar/handle/10915/22683
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
dc.format.none.fl_str_mv application/pdf
1424-1435
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1842260117932736512
score 13.13397