Escalabilidad en DSM: modelos relajados de consistencia

Autores
García, Rafael B.; Echaiz, Javier; Ardenghi, Jorge Raúl
Año de publicación
2004
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
Los sistemas de Memoria Compartida Distribuida (DSM) posibilitan disponer de una memoria compartida en un contexto de escalabilidad superior a los de memoria compartida convencional. El modelo de consistencia más aceptado es el secuencial, por ser el mas afín con la intuición del programador. Otros modelos, a partir de imponer determinadas características al programa, aseguran una ejecución secuencial pero con el beneficio de una implementación superior. En nuestra opinión, un aspecto que incide fuertemente en la escalabilidad y/o complejidad de un sistema es el de coherencia de memoria. Los modelos de consistencia secuencial, y muchos de los derivados de este último, requieren mantener coherente la cache. Esto obliga a una serialización de los accesos a locaciones individuales, lo cual se aplica tanto en arquitecturas UMA (protocolos de snooping) como NUMA (generalmente esquemas de directorio). Dado que típicamente los programas son sincronizados, y en la hipótesis de que se debe ser más eficiente en los casos más frecuentes, analizaremos los resultados de diferir la coherencia, con el objetivo último de alcanzar acceso inmediato, fast access, y a su vez no obstaculizar la optimización a nivel de los compiladores.
Eje: Redes y arquitecturas
Red de Universidades con Carreras en Informática (RedUNCI)
Materia
Ciencias Informáticas
Cache memories
Memoria Compartida Distribuida (DSM)
Software Architectures
coherencia de cache
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/21313

id SEDICI_f017e75006a54529762416ac7cb66fab
oai_identifier_str oai:sedici.unlp.edu.ar:10915/21313
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Escalabilidad en DSM: modelos relajados de consistenciaGarcía, Rafael B.Echaiz, JavierArdenghi, Jorge RaúlCiencias InformáticasCache memoriesMemoria Compartida Distribuida (DSM)Software Architecturescoherencia de cacheLos sistemas de Memoria Compartida Distribuida (DSM) posibilitan disponer de una memoria compartida en un contexto de escalabilidad superior a los de memoria compartida convencional. El modelo de consistencia más aceptado es el secuencial, por ser el mas afín con la intuición del programador. Otros modelos, a partir de imponer determinadas características al programa, aseguran una ejecución secuencial pero con el beneficio de una implementación superior. En nuestra opinión, un aspecto que incide fuertemente en la escalabilidad y/o complejidad de un sistema es el de coherencia de memoria. Los modelos de consistencia secuencial, y muchos de los derivados de este último, requieren mantener coherente la cache. Esto obliga a una serialización de los accesos a locaciones individuales, lo cual se aplica tanto en arquitecturas UMA (protocolos de snooping) como NUMA (generalmente esquemas de directorio). Dado que típicamente los programas son sincronizados, y en la hipótesis de que se debe ser más eficiente en los casos más frecuentes, analizaremos los resultados de diferir la coherencia, con el objetivo último de alcanzar acceso inmediato, fast access, y a su vez no obstaculizar la optimización a nivel de los compiladores.Eje: Redes y arquitecturasRed de Universidades con Carreras en Informática (RedUNCI)2004-05info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdf486-491http://sedici.unlp.edu.ar/handle/10915/21313spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/2.5/ar/Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-11-05T12:34:31Zoai:sedici.unlp.edu.ar:10915/21313Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-11-05 12:34:31.651SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Escalabilidad en DSM: modelos relajados de consistencia
title Escalabilidad en DSM: modelos relajados de consistencia
spellingShingle Escalabilidad en DSM: modelos relajados de consistencia
García, Rafael B.
Ciencias Informáticas
Cache memories
Memoria Compartida Distribuida (DSM)
Software Architectures
coherencia de cache
title_short Escalabilidad en DSM: modelos relajados de consistencia
title_full Escalabilidad en DSM: modelos relajados de consistencia
title_fullStr Escalabilidad en DSM: modelos relajados de consistencia
title_full_unstemmed Escalabilidad en DSM: modelos relajados de consistencia
title_sort Escalabilidad en DSM: modelos relajados de consistencia
dc.creator.none.fl_str_mv García, Rafael B.
Echaiz, Javier
Ardenghi, Jorge Raúl
author García, Rafael B.
author_facet García, Rafael B.
Echaiz, Javier
Ardenghi, Jorge Raúl
author_role author
author2 Echaiz, Javier
Ardenghi, Jorge Raúl
author2_role author
author
dc.subject.none.fl_str_mv Ciencias Informáticas
Cache memories
Memoria Compartida Distribuida (DSM)
Software Architectures
coherencia de cache
topic Ciencias Informáticas
Cache memories
Memoria Compartida Distribuida (DSM)
Software Architectures
coherencia de cache
dc.description.none.fl_txt_mv Los sistemas de Memoria Compartida Distribuida (DSM) posibilitan disponer de una memoria compartida en un contexto de escalabilidad superior a los de memoria compartida convencional. El modelo de consistencia más aceptado es el secuencial, por ser el mas afín con la intuición del programador. Otros modelos, a partir de imponer determinadas características al programa, aseguran una ejecución secuencial pero con el beneficio de una implementación superior. En nuestra opinión, un aspecto que incide fuertemente en la escalabilidad y/o complejidad de un sistema es el de coherencia de memoria. Los modelos de consistencia secuencial, y muchos de los derivados de este último, requieren mantener coherente la cache. Esto obliga a una serialización de los accesos a locaciones individuales, lo cual se aplica tanto en arquitecturas UMA (protocolos de snooping) como NUMA (generalmente esquemas de directorio). Dado que típicamente los programas son sincronizados, y en la hipótesis de que se debe ser más eficiente en los casos más frecuentes, analizaremos los resultados de diferir la coherencia, con el objetivo último de alcanzar acceso inmediato, fast access, y a su vez no obstaculizar la optimización a nivel de los compiladores.
Eje: Redes y arquitecturas
Red de Universidades con Carreras en Informática (RedUNCI)
description Los sistemas de Memoria Compartida Distribuida (DSM) posibilitan disponer de una memoria compartida en un contexto de escalabilidad superior a los de memoria compartida convencional. El modelo de consistencia más aceptado es el secuencial, por ser el mas afín con la intuición del programador. Otros modelos, a partir de imponer determinadas características al programa, aseguran una ejecución secuencial pero con el beneficio de una implementación superior. En nuestra opinión, un aspecto que incide fuertemente en la escalabilidad y/o complejidad de un sistema es el de coherencia de memoria. Los modelos de consistencia secuencial, y muchos de los derivados de este último, requieren mantener coherente la cache. Esto obliga a una serialización de los accesos a locaciones individuales, lo cual se aplica tanto en arquitecturas UMA (protocolos de snooping) como NUMA (generalmente esquemas de directorio). Dado que típicamente los programas son sincronizados, y en la hipótesis de que se debe ser más eficiente en los casos más frecuentes, analizaremos los resultados de diferir la coherencia, con el objetivo último de alcanzar acceso inmediato, fast access, y a su vez no obstaculizar la optimización a nivel de los compiladores.
publishDate 2004
dc.date.none.fl_str_mv 2004-05
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/21313
url http://sedici.unlp.edu.ar/handle/10915/21313
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
dc.format.none.fl_str_mv application/pdf
486-491
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1847978359456268288
score 13.082534