Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico

Autores
Aróztegui, Walter; Tinetti, Fernando Gustavo; Osio, Jorge R.; Rapallini, José A.; Quijano, Antonio A.
Año de publicación
2007
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión enviada
Descripción
En el marco de desarrollo de herramientas de diseño electrónico, para sistemas de diseño de ciruitos integrados (ASICs), se hace necesaria la resolución de sistemas de ecuaciones lineales, tanto más grandes cuanto más complejidad tenga el circuito a diseñar. La ejecución de aplicaciones en forma paralela en varias computadoras aparece como una solución efectiva para conseguir la potencia de cálculo necesaria . En este artículo se presenta una estrategia de paralelización de clusters del método de Gauss-Seidel para la solución de sistemas de ecuaciones ralas. Desde el punto de vista de la solución numérica para matrices de coeficientes con poca densidad de elementos no nulos, se siguen los lineamientos estándares, es decir, esquemas de almacenamientos especiales (solamente se almacenan los elementos no nulos) y métodos iterativos de búsqueda de solución por aproximaciones sucesivas. Desde el punto de vista de la paralelización del procesamiento en clusters de computadoras, se siguen dos principios básicos: distribución de carga de procesamiento aún en el caso de clusters heterogéneos y utilización de mensajes broadcast para toda comunicación de datos entre procesos. La interconexión más usual en clusters es la provista por las redes Ethernet, y por lo tanto pueden implementar los mensajes broadcast a nivel físico con sobrecarga mínima. Se presenta el análisis de rendimiento paralelo y además los resultados obtenidos en una red local de computadoras heterogénas no dedicadas. En este caso se utiliza una implementación de la biblioteca MPI (Message Pasage Interface) para la comunicación entre procesos.
Materia
Ingeniería Eléctrica y Electrónica
sistemas de diseño de ciruitos integrados (ASICs)
sistemas de ecuaciones lineales
potencia de cálculo
paralelización de clusters
método de Gauss-Seidel
Message Pasage Interface (MPI)
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by/4.0/
Repositorio
CIC Digital (CICBA)
Institución
Comisión de Investigaciones Científicas de la Provincia de Buenos Aires
OAI Identificador
oai:digital.cic.gba.gob.ar:11746/6499

id CICBA_193764ec445f3e15797d8c85cd1f19e1
oai_identifier_str oai:digital.cic.gba.gob.ar:11746/6499
network_acronym_str CICBA
repository_id_str 9441
network_name_str CIC Digital (CICBA)
spelling Estudio Algoritmos en Computación Paralela para Herramientas de Diseño ElectrónicoAróztegui, WalterTinetti, Fernando GustavoOsio, Jorge R.Rapallini, José A.Quijano, Antonio A.Ingeniería Eléctrica y Electrónicasistemas de diseño de ciruitos integrados (ASICs)sistemas de ecuaciones linealespotencia de cálculoparalelización de clustersmétodo de Gauss-SeidelMessage Pasage Interface (MPI)En el marco de desarrollo de herramientas de diseño electrónico, para sistemas de diseño de ciruitos integrados (ASICs), se hace necesaria la resolución de sistemas de ecuaciones lineales, tanto más grandes cuanto más complejidad tenga el circuito a diseñar. La ejecución de aplicaciones en forma paralela en varias computadoras aparece como una solución efectiva para conseguir la potencia de cálculo necesaria . En este artículo se presenta una estrategia de paralelización de clusters del método de Gauss-Seidel para la solución de sistemas de ecuaciones ralas. Desde el punto de vista de la solución numérica para matrices de coeficientes con poca densidad de elementos no nulos, se siguen los lineamientos estándares, es decir, esquemas de almacenamientos especiales (solamente se almacenan los elementos no nulos) y métodos iterativos de búsqueda de solución por aproximaciones sucesivas. Desde el punto de vista de la paralelización del procesamiento en clusters de computadoras, se siguen dos principios básicos: distribución de carga de procesamiento aún en el caso de clusters heterogéneos y utilización de mensajes broadcast para toda comunicación de datos entre procesos. La interconexión más usual en clusters es la provista por las redes Ethernet, y por lo tanto pueden implementar los mensajes broadcast a nivel físico con sobrecarga mínima. Se presenta el análisis de rendimiento paralelo y además los resultados obtenidos en una red local de computadoras heterogénas no dedicadas. En este caso se utiliza una implementación de la biblioteca MPI (Message Pasage Interface) para la comunicación entre procesos.2007info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/submittedVersionhttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttps://digital.cic.gba.gob.ar/handle/11746/6499spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by/4.0/reponame:CIC Digital (CICBA)instname:Comisión de Investigaciones Científicas de la Provincia de Buenos Airesinstacron:CICBA2025-09-29T13:40:18Zoai:digital.cic.gba.gob.ar:11746/6499Institucionalhttp://digital.cic.gba.gob.arOrganismo científico-tecnológicoNo correspondehttp://digital.cic.gba.gob.ar/oai/snrdmarisa.degiusti@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:94412025-09-29 13:40:18.444CIC Digital (CICBA) - Comisión de Investigaciones Científicas de la Provincia de Buenos Airesfalse
dc.title.none.fl_str_mv Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico
title Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico
spellingShingle Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico
Aróztegui, Walter
Ingeniería Eléctrica y Electrónica
sistemas de diseño de ciruitos integrados (ASICs)
sistemas de ecuaciones lineales
potencia de cálculo
paralelización de clusters
método de Gauss-Seidel
Message Pasage Interface (MPI)
title_short Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico
title_full Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico
title_fullStr Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico
title_full_unstemmed Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico
title_sort Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico
dc.creator.none.fl_str_mv Aróztegui, Walter
Tinetti, Fernando Gustavo
Osio, Jorge R.
Rapallini, José A.
Quijano, Antonio A.
author Aróztegui, Walter
author_facet Aróztegui, Walter
Tinetti, Fernando Gustavo
Osio, Jorge R.
Rapallini, José A.
Quijano, Antonio A.
author_role author
author2 Tinetti, Fernando Gustavo
Osio, Jorge R.
Rapallini, José A.
Quijano, Antonio A.
author2_role author
author
author
author
dc.subject.none.fl_str_mv Ingeniería Eléctrica y Electrónica
sistemas de diseño de ciruitos integrados (ASICs)
sistemas de ecuaciones lineales
potencia de cálculo
paralelización de clusters
método de Gauss-Seidel
Message Pasage Interface (MPI)
topic Ingeniería Eléctrica y Electrónica
sistemas de diseño de ciruitos integrados (ASICs)
sistemas de ecuaciones lineales
potencia de cálculo
paralelización de clusters
método de Gauss-Seidel
Message Pasage Interface (MPI)
dc.description.none.fl_txt_mv En el marco de desarrollo de herramientas de diseño electrónico, para sistemas de diseño de ciruitos integrados (ASICs), se hace necesaria la resolución de sistemas de ecuaciones lineales, tanto más grandes cuanto más complejidad tenga el circuito a diseñar. La ejecución de aplicaciones en forma paralela en varias computadoras aparece como una solución efectiva para conseguir la potencia de cálculo necesaria . En este artículo se presenta una estrategia de paralelización de clusters del método de Gauss-Seidel para la solución de sistemas de ecuaciones ralas. Desde el punto de vista de la solución numérica para matrices de coeficientes con poca densidad de elementos no nulos, se siguen los lineamientos estándares, es decir, esquemas de almacenamientos especiales (solamente se almacenan los elementos no nulos) y métodos iterativos de búsqueda de solución por aproximaciones sucesivas. Desde el punto de vista de la paralelización del procesamiento en clusters de computadoras, se siguen dos principios básicos: distribución de carga de procesamiento aún en el caso de clusters heterogéneos y utilización de mensajes broadcast para toda comunicación de datos entre procesos. La interconexión más usual en clusters es la provista por las redes Ethernet, y por lo tanto pueden implementar los mensajes broadcast a nivel físico con sobrecarga mínima. Se presenta el análisis de rendimiento paralelo y además los resultados obtenidos en una red local de computadoras heterogénas no dedicadas. En este caso se utiliza una implementación de la biblioteca MPI (Message Pasage Interface) para la comunicación entre procesos.
description En el marco de desarrollo de herramientas de diseño electrónico, para sistemas de diseño de ciruitos integrados (ASICs), se hace necesaria la resolución de sistemas de ecuaciones lineales, tanto más grandes cuanto más complejidad tenga el circuito a diseñar. La ejecución de aplicaciones en forma paralela en varias computadoras aparece como una solución efectiva para conseguir la potencia de cálculo necesaria . En este artículo se presenta una estrategia de paralelización de clusters del método de Gauss-Seidel para la solución de sistemas de ecuaciones ralas. Desde el punto de vista de la solución numérica para matrices de coeficientes con poca densidad de elementos no nulos, se siguen los lineamientos estándares, es decir, esquemas de almacenamientos especiales (solamente se almacenan los elementos no nulos) y métodos iterativos de búsqueda de solución por aproximaciones sucesivas. Desde el punto de vista de la paralelización del procesamiento en clusters de computadoras, se siguen dos principios básicos: distribución de carga de procesamiento aún en el caso de clusters heterogéneos y utilización de mensajes broadcast para toda comunicación de datos entre procesos. La interconexión más usual en clusters es la provista por las redes Ethernet, y por lo tanto pueden implementar los mensajes broadcast a nivel físico con sobrecarga mínima. Se presenta el análisis de rendimiento paralelo y además los resultados obtenidos en una red local de computadoras heterogénas no dedicadas. En este caso se utiliza una implementación de la biblioteca MPI (Message Pasage Interface) para la comunicación entre procesos.
publishDate 2007
dc.date.none.fl_str_mv 2007
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/submittedVersion
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str submittedVersion
dc.identifier.none.fl_str_mv https://digital.cic.gba.gob.ar/handle/11746/6499
url https://digital.cic.gba.gob.ar/handle/11746/6499
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by/4.0/
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:CIC Digital (CICBA)
instname:Comisión de Investigaciones Científicas de la Provincia de Buenos Aires
instacron:CICBA
reponame_str CIC Digital (CICBA)
collection CIC Digital (CICBA)
instname_str Comisión de Investigaciones Científicas de la Provincia de Buenos Aires
instacron_str CICBA
institution CICBA
repository.name.fl_str_mv CIC Digital (CICBA) - Comisión de Investigaciones Científicas de la Provincia de Buenos Aires
repository.mail.fl_str_mv marisa.degiusti@sedici.unlp.edu.ar
_version_ 1844618615622467584
score 12.891075