Optimización del consumo energético en algoritmos paralelos

Autores
Libutti, Leandro Ariel
Año de publicación
2020
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
El crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1. el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2. la disponibilidad de cantidades masivas de datos y la viabilidad de almacenarlos y analizarlos de manera eficiente 3. La aparición de arquitecturas de hardware novedosas, normalmente paralelas y / u homogéneas, que permiten una explotación adecuada de ambos nuevos algoritmos en grandes conjuntos de datos en un tiempo asequible. El framework de ML denominado TensorFlow (TF) se diseñó para proporcionar capacidades de subprocesos múltiples, extendidas con soporte de acelerador de hardware para aprovechar el potencial de las arquitecturas modernas. La cantidad de paralelismo en las versiones actuales se puede seleccionar en varios niveles bajo demanda. Sin embargo, esta selección es fija y no puede variar durante la ejecución de sesiones de entrenamiento / inferencia. Esto restringe en gran medida la flexibilidad y elasticidad del framework, especialmente en escenarios en los que múltiples instancias de TF coexisten en una arquitectura paralela. En este plan de investigación se proponen los siguientes trabajos: • Realizar las modificaciones dentro de TF para soportar la selección dinámica de paralelismo, con el fin de brindar una maleabilidad transparente a la infraestructura. • Integración con un co-planificacor. Una infraestructura de framework maleable solo tiene sentido real cuando se combina con un administrador de recursos de nivel superior (o co-planificador), que aprovecha la maleabilidad subyacente (en este caso dentro de TF) y de forma dinámica modifica la cantidad de recursos que se les asigna de forma coordinada. • Creación de una API de maleabilidad. Actualmente se selecciona internamente en puntos de ejecución específicos como prueba de conceptos. Sin embargo, su gestión debe ser transparente y seleccionable externamente, bajo demanda. Una API ad-hoc para seleccionar el número de subprocesos activos / inactivos será obligatoria, junto con una infraestructura para soportar la variación de subprocesos por medio de la recepción de señales del sistema operativo. • Gestión a través de contenedores. Los contenedores permiten una reducción dinámica del recurso en cuanto a número de núcleos, cantidad de memoria y dispositivos externos, entre otros. Sin embargo, la reducción externa del número de núcleos asignados sin una reducción adecuada de los subprocesos de software internos genera un efecto de sobre-suscripción no aceptable. Como los procesos de entrenamiento / inferencia de TF generalmente se limitan a los contenedores de Docker, es obligatorio admitir la maleabilidad en el marco. La interacción entre la gestión de recursos por contenedor y la maleabilidad en TF es, por lo tanto, un objetivo principal de nuestra investigación.
Carrera: Magister en Cómputos de Altas Prestaciones Tipo de beca: Maestría Año de inicio de beca: 2018 Año de finalización de beca: 2021 Organismo: UNLP Apellido, Nombre del Director/a/e: De Giusti, Laura Apellido, Nombre del Codirector/a/e: Naiouf, Marcelo Tipo de investigación: Aplicada
Facultad de Informática
Instituto de Investigación en Informática
Materia
Informática
Hpc
Paralelismo dinámico
Tensorflow
Co-planificación
Contenedores
Hpc
Malleability
Tensorflow
Co-scheduling
Containers
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/4.0/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/114189

id SEDICI_29b152fcb1d247f2bfc179658629b266
oai_identifier_str oai:sedici.unlp.edu.ar:10915/114189
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Optimización del consumo energético en algoritmos paralelosOptimization of energy consumption in parallel algorithmsLibutti, Leandro ArielInformáticaHpcParalelismo dinámicoTensorflowCo-planificaciónContenedoresHpcMalleabilityTensorflowCo-schedulingContainersEl crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1. el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2. la disponibilidad de cantidades masivas de datos y la viabilidad de almacenarlos y analizarlos de manera eficiente 3. La aparición de arquitecturas de hardware novedosas, normalmente paralelas y / u homogéneas, que permiten una explotación adecuada de ambos nuevos algoritmos en grandes conjuntos de datos en un tiempo asequible. El framework de ML denominado TensorFlow (TF) se diseñó para proporcionar capacidades de subprocesos múltiples, extendidas con soporte de acelerador de hardware para aprovechar el potencial de las arquitecturas modernas. La cantidad de paralelismo en las versiones actuales se puede seleccionar en varios niveles bajo demanda. Sin embargo, esta selección es fija y no puede variar durante la ejecución de sesiones de entrenamiento / inferencia. Esto restringe en gran medida la flexibilidad y elasticidad del framework, especialmente en escenarios en los que múltiples instancias de TF coexisten en una arquitectura paralela. En este plan de investigación se proponen los siguientes trabajos: • Realizar las modificaciones dentro de TF para soportar la selección dinámica de paralelismo, con el fin de brindar una maleabilidad transparente a la infraestructura. • Integración con un co-planificacor. Una infraestructura de framework maleable solo tiene sentido real cuando se combina con un administrador de recursos de nivel superior (o co-planificador), que aprovecha la maleabilidad subyacente (en este caso dentro de TF) y de forma dinámica modifica la cantidad de recursos que se les asigna de forma coordinada. • Creación de una API de maleabilidad. Actualmente se selecciona internamente en puntos de ejecución específicos como prueba de conceptos. Sin embargo, su gestión debe ser transparente y seleccionable externamente, bajo demanda. Una API ad-hoc para seleccionar el número de subprocesos activos / inactivos será obligatoria, junto con una infraestructura para soportar la variación de subprocesos por medio de la recepción de señales del sistema operativo. • Gestión a través de contenedores. Los contenedores permiten una reducción dinámica del recurso en cuanto a número de núcleos, cantidad de memoria y dispositivos externos, entre otros. Sin embargo, la reducción externa del número de núcleos asignados sin una reducción adecuada de los subprocesos de software internos genera un efecto de sobre-suscripción no aceptable. Como los procesos de entrenamiento / inferencia de TF generalmente se limitan a los contenedores de Docker, es obligatorio admitir la maleabilidad en el marco. La interacción entre la gestión de recursos por contenedor y la maleabilidad en TF es, por lo tanto, un objetivo principal de nuestra investigación.Carrera: Magister en Cómputos de Altas Prestaciones Tipo de beca: Maestría Año de inicio de beca: 2018 Año de finalización de beca: 2021 Organismo: UNLP Apellido, Nombre del Director/a/e: De Giusti, Laura Apellido, Nombre del Codirector/a/e: Naiouf, Marcelo Tipo de investigación: AplicadaFacultad de InformáticaInstituto de Investigación en Informática2020-11-12info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaimage/jpeghttp://sedici.unlp.edu.ar/handle/10915/114189spainfo:eu-repo/semantics/altIdentifier/url/https://congresos.unlp.edu.ar/ebec2020/leandro-libuttiinfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-17T10:09:20Zoai:sedici.unlp.edu.ar:10915/114189Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-17 10:09:21.134SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Optimización del consumo energético en algoritmos paralelos
Optimization of energy consumption in parallel algorithms
title Optimización del consumo energético en algoritmos paralelos
spellingShingle Optimización del consumo energético en algoritmos paralelos
Libutti, Leandro Ariel
Informática
Hpc
Paralelismo dinámico
Tensorflow
Co-planificación
Contenedores
Hpc
Malleability
Tensorflow
Co-scheduling
Containers
title_short Optimización del consumo energético en algoritmos paralelos
title_full Optimización del consumo energético en algoritmos paralelos
title_fullStr Optimización del consumo energético en algoritmos paralelos
title_full_unstemmed Optimización del consumo energético en algoritmos paralelos
title_sort Optimización del consumo energético en algoritmos paralelos
dc.creator.none.fl_str_mv Libutti, Leandro Ariel
author Libutti, Leandro Ariel
author_facet Libutti, Leandro Ariel
author_role author
dc.subject.none.fl_str_mv Informática
Hpc
Paralelismo dinámico
Tensorflow
Co-planificación
Contenedores
Hpc
Malleability
Tensorflow
Co-scheduling
Containers
topic Informática
Hpc
Paralelismo dinámico
Tensorflow
Co-planificación
Contenedores
Hpc
Malleability
Tensorflow
Co-scheduling
Containers
dc.description.none.fl_txt_mv El crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1. el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2. la disponibilidad de cantidades masivas de datos y la viabilidad de almacenarlos y analizarlos de manera eficiente 3. La aparición de arquitecturas de hardware novedosas, normalmente paralelas y / u homogéneas, que permiten una explotación adecuada de ambos nuevos algoritmos en grandes conjuntos de datos en un tiempo asequible. El framework de ML denominado TensorFlow (TF) se diseñó para proporcionar capacidades de subprocesos múltiples, extendidas con soporte de acelerador de hardware para aprovechar el potencial de las arquitecturas modernas. La cantidad de paralelismo en las versiones actuales se puede seleccionar en varios niveles bajo demanda. Sin embargo, esta selección es fija y no puede variar durante la ejecución de sesiones de entrenamiento / inferencia. Esto restringe en gran medida la flexibilidad y elasticidad del framework, especialmente en escenarios en los que múltiples instancias de TF coexisten en una arquitectura paralela. En este plan de investigación se proponen los siguientes trabajos: • Realizar las modificaciones dentro de TF para soportar la selección dinámica de paralelismo, con el fin de brindar una maleabilidad transparente a la infraestructura. • Integración con un co-planificacor. Una infraestructura de framework maleable solo tiene sentido real cuando se combina con un administrador de recursos de nivel superior (o co-planificador), que aprovecha la maleabilidad subyacente (en este caso dentro de TF) y de forma dinámica modifica la cantidad de recursos que se les asigna de forma coordinada. • Creación de una API de maleabilidad. Actualmente se selecciona internamente en puntos de ejecución específicos como prueba de conceptos. Sin embargo, su gestión debe ser transparente y seleccionable externamente, bajo demanda. Una API ad-hoc para seleccionar el número de subprocesos activos / inactivos será obligatoria, junto con una infraestructura para soportar la variación de subprocesos por medio de la recepción de señales del sistema operativo. • Gestión a través de contenedores. Los contenedores permiten una reducción dinámica del recurso en cuanto a número de núcleos, cantidad de memoria y dispositivos externos, entre otros. Sin embargo, la reducción externa del número de núcleos asignados sin una reducción adecuada de los subprocesos de software internos genera un efecto de sobre-suscripción no aceptable. Como los procesos de entrenamiento / inferencia de TF generalmente se limitan a los contenedores de Docker, es obligatorio admitir la maleabilidad en el marco. La interacción entre la gestión de recursos por contenedor y la maleabilidad en TF es, por lo tanto, un objetivo principal de nuestra investigación.
Carrera: Magister en Cómputos de Altas Prestaciones Tipo de beca: Maestría Año de inicio de beca: 2018 Año de finalización de beca: 2021 Organismo: UNLP Apellido, Nombre del Director/a/e: De Giusti, Laura Apellido, Nombre del Codirector/a/e: Naiouf, Marcelo Tipo de investigación: Aplicada
Facultad de Informática
Instituto de Investigación en Informática
description El crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1. el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2. la disponibilidad de cantidades masivas de datos y la viabilidad de almacenarlos y analizarlos de manera eficiente 3. La aparición de arquitecturas de hardware novedosas, normalmente paralelas y / u homogéneas, que permiten una explotación adecuada de ambos nuevos algoritmos en grandes conjuntos de datos en un tiempo asequible. El framework de ML denominado TensorFlow (TF) se diseñó para proporcionar capacidades de subprocesos múltiples, extendidas con soporte de acelerador de hardware para aprovechar el potencial de las arquitecturas modernas. La cantidad de paralelismo en las versiones actuales se puede seleccionar en varios niveles bajo demanda. Sin embargo, esta selección es fija y no puede variar durante la ejecución de sesiones de entrenamiento / inferencia. Esto restringe en gran medida la flexibilidad y elasticidad del framework, especialmente en escenarios en los que múltiples instancias de TF coexisten en una arquitectura paralela. En este plan de investigación se proponen los siguientes trabajos: • Realizar las modificaciones dentro de TF para soportar la selección dinámica de paralelismo, con el fin de brindar una maleabilidad transparente a la infraestructura. • Integración con un co-planificacor. Una infraestructura de framework maleable solo tiene sentido real cuando se combina con un administrador de recursos de nivel superior (o co-planificador), que aprovecha la maleabilidad subyacente (en este caso dentro de TF) y de forma dinámica modifica la cantidad de recursos que se les asigna de forma coordinada. • Creación de una API de maleabilidad. Actualmente se selecciona internamente en puntos de ejecución específicos como prueba de conceptos. Sin embargo, su gestión debe ser transparente y seleccionable externamente, bajo demanda. Una API ad-hoc para seleccionar el número de subprocesos activos / inactivos será obligatoria, junto con una infraestructura para soportar la variación de subprocesos por medio de la recepción de señales del sistema operativo. • Gestión a través de contenedores. Los contenedores permiten una reducción dinámica del recurso en cuanto a número de núcleos, cantidad de memoria y dispositivos externos, entre otros. Sin embargo, la reducción externa del número de núcleos asignados sin una reducción adecuada de los subprocesos de software internos genera un efecto de sobre-suscripción no aceptable. Como los procesos de entrenamiento / inferencia de TF generalmente se limitan a los contenedores de Docker, es obligatorio admitir la maleabilidad en el marco. La interacción entre la gestión de recursos por contenedor y la maleabilidad en TF es, por lo tanto, un objetivo principal de nuestra investigación.
publishDate 2020
dc.date.none.fl_str_mv 2020-11-12
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/114189
url http://sedici.unlp.edu.ar/handle/10915/114189
dc.language.none.fl_str_mv spa
language spa
dc.relation.none.fl_str_mv info:eu-repo/semantics/altIdentifier/url/https://congresos.unlp.edu.ar/ebec2020/leandro-libutti
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
dc.format.none.fl_str_mv image/jpeg
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1843532676500291584
score 13.001348