Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices

Autores
Tinetti, Fernando Gustavo; Denham, Mónica Malén
Año de publicación
2001
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
En este artículo se muestra cómo se obtiene speedup (aceleración) superlineal a partir de código secuencial no optimizado como resultado de la paralelización de las aplicaciones de cómputo intensivo en supercomputadoras paralelas de memoria compartida del tipo SGI Origin 2000 tal como Clementina 2. Se muestra vía experimentación la principal razón por la cual se combinan el cómputo paralelo con la optimización local derivada de la paralelización para obtener speedup superlineal. Además, se muestra cómo un algoritmo orientado a las computadoras paralelas de memoria distribuida se aprovecha en el entorno de las arquitecturas paralelas de memoria compartida, siempre y cuando el rendimiento de las operaciones de pasaje de mensajes utilizadas sea apropiado. En este sentido se explica también cómo el concepto de granularidad tiene gran influencia no solamente en la frecuencia o relación cómputo-comunicación entre tareas sino también en la optimización de código local que se ejecuta en cada procesador de una máquina paralela de memoria compartida.
Eje: Programación concurrente
Red de Universidades con Carreras en Informática (RedUNCI)
Materia
Ciencias Informáticas
Concurrent Programming
Cómputo Paralelo
Rendimiento
Parallel
Supercomputadoras de Memoria Compartida
Optimización de Código
Granularidad
Speedup
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/23314

id SEDICI_7a23c041bc2eb72ee1dd0fe93a5a53e9
oai_identifier_str oai:sedici.unlp.edu.ar:10915/23314
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matricesTinetti, Fernando GustavoDenham, Mónica MalénCiencias InformáticasConcurrent ProgrammingCómputo ParaleloRendimientoParallelSupercomputadoras de Memoria CompartidaOptimización de CódigoGranularidadSpeedupEn este artículo se muestra cómo se obtiene speedup (aceleración) superlineal a partir de código secuencial no optimizado como resultado de la paralelización de las aplicaciones de cómputo intensivo en supercomputadoras paralelas de memoria compartida del tipo SGI Origin 2000 tal como Clementina 2. Se muestra vía experimentación la principal razón por la cual se combinan el cómputo paralelo con la optimización local derivada de la paralelización para obtener speedup superlineal. Además, se muestra cómo un algoritmo orientado a las computadoras paralelas de memoria distribuida se aprovecha en el entorno de las arquitecturas paralelas de memoria compartida, siempre y cuando el rendimiento de las operaciones de pasaje de mensajes utilizadas sea apropiado. En este sentido se explica también cómo el concepto de granularidad tiene gran influencia no solamente en la frecuencia o relación cómputo-comunicación entre tareas sino también en la optimización de código local que se ejecuta en cada procesador de una máquina paralela de memoria compartida.Eje: Programación concurrenteRed de Universidades con Carreras en Informática (RedUNCI)2001-10info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/23314spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/2.5/ar/Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-29T10:55:25Zoai:sedici.unlp.edu.ar:10915/23314Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-29 10:55:25.861SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
title Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
spellingShingle Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
Tinetti, Fernando Gustavo
Ciencias Informáticas
Concurrent Programming
Cómputo Paralelo
Rendimiento
Parallel
Supercomputadoras de Memoria Compartida
Optimización de Código
Granularidad
Speedup
title_short Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
title_full Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
title_fullStr Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
title_full_unstemmed Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
title_sort Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
dc.creator.none.fl_str_mv Tinetti, Fernando Gustavo
Denham, Mónica Malén
author Tinetti, Fernando Gustavo
author_facet Tinetti, Fernando Gustavo
Denham, Mónica Malén
author_role author
author2 Denham, Mónica Malén
author2_role author
dc.subject.none.fl_str_mv Ciencias Informáticas
Concurrent Programming
Cómputo Paralelo
Rendimiento
Parallel
Supercomputadoras de Memoria Compartida
Optimización de Código
Granularidad
Speedup
topic Ciencias Informáticas
Concurrent Programming
Cómputo Paralelo
Rendimiento
Parallel
Supercomputadoras de Memoria Compartida
Optimización de Código
Granularidad
Speedup
dc.description.none.fl_txt_mv En este artículo se muestra cómo se obtiene speedup (aceleración) superlineal a partir de código secuencial no optimizado como resultado de la paralelización de las aplicaciones de cómputo intensivo en supercomputadoras paralelas de memoria compartida del tipo SGI Origin 2000 tal como Clementina 2. Se muestra vía experimentación la principal razón por la cual se combinan el cómputo paralelo con la optimización local derivada de la paralelización para obtener speedup superlineal. Además, se muestra cómo un algoritmo orientado a las computadoras paralelas de memoria distribuida se aprovecha en el entorno de las arquitecturas paralelas de memoria compartida, siempre y cuando el rendimiento de las operaciones de pasaje de mensajes utilizadas sea apropiado. En este sentido se explica también cómo el concepto de granularidad tiene gran influencia no solamente en la frecuencia o relación cómputo-comunicación entre tareas sino también en la optimización de código local que se ejecuta en cada procesador de una máquina paralela de memoria compartida.
Eje: Programación concurrente
Red de Universidades con Carreras en Informática (RedUNCI)
description En este artículo se muestra cómo se obtiene speedup (aceleración) superlineal a partir de código secuencial no optimizado como resultado de la paralelización de las aplicaciones de cómputo intensivo en supercomputadoras paralelas de memoria compartida del tipo SGI Origin 2000 tal como Clementina 2. Se muestra vía experimentación la principal razón por la cual se combinan el cómputo paralelo con la optimización local derivada de la paralelización para obtener speedup superlineal. Además, se muestra cómo un algoritmo orientado a las computadoras paralelas de memoria distribuida se aprovecha en el entorno de las arquitecturas paralelas de memoria compartida, siempre y cuando el rendimiento de las operaciones de pasaje de mensajes utilizadas sea apropiado. En este sentido se explica también cómo el concepto de granularidad tiene gran influencia no solamente en la frecuencia o relación cómputo-comunicación entre tareas sino también en la optimización de código local que se ejecuta en cada procesador de una máquina paralela de memoria compartida.
publishDate 2001
dc.date.none.fl_str_mv 2001-10
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/23314
url http://sedici.unlp.edu.ar/handle/10915/23314
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1844615812813422592
score 13.070432