Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud

Autores
Robino, Luciano I.; Garí, Yisel; Pacini, Elina; Mateo, Cristian; Yannibelli, Virginia; Monge, David A.
Año de publicación
2025
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
En los últimos años, muchos experimentos científicos son realizados por medio de workflows científicos. Estas tecnologías facilitan la realización de experimentos que son computacionalmente intensivos, y que muchas veces requieren ser ejecutados en Clouds públicas. Esto hace que optimizar la ejecución de estas aplicaciones sea un problema desafiante debido a que la virtualización de recursos en Cloud crea necesidades de planificación a la vez de representar incertidumbre en la ejecución. Por este motivo, se han usado heurísticas y metaheurísticas para este problema. En particular, se ha intentado resolver el problema usando técnicas de Aprendizaje por Refuerzo y algoritmos evolutivos. En este trabajo se presenta un problema markoviano de decisión para resolver este problema desde el punto de vista de Aprendizaje por Refuerzo. En conjunto con este modelado, se presenta también una variación que permite abordar el mismo problema como un algoritmo evolutivo multiobjetivo. Estas dos estrategias son comparadas usando 4 workflows de referencia de la literatura, utilizando el simulador CloudSimPlus y máquinas virtuales presentes en Amazon. Para este análisis se estudia el costo monetario de ejecución, el tiempo total de ejecución (makespan) y la norma L2 de estas dos métricas.
In recent years, many scientific experiments have been performed using scientific workflows. These technologies facilitate the  performance of computationally intensive experiments, which often require to be executed on public Clouds. Optimizing these applications becomes a challenging problem since resource virtualization demands scheduling needs to be satisfied, at the same time it has to deal with uncertainties during execution. For this reason, heuristic and metaheuristic solutions have been proposed to this problem. Indeed, Reinforcement Learning and evolutionary algorithms have been used to tackled this problem. This paper presents a Markovian Decision Problem that can be used to solve this problem using Reinforcement Learning. Additionally, a variation of this modeling is introduced to solve the same problem using multi-objective evolutionary algorithms. These two strategies are compared using 4 benchmark workflows using the simulator CloudSimPlus and virtual machines present on Amazon public clouds. Total monetary cost of the execution, total execution time (i.e. makespan), and the L2 norm of these two quantities are used for the comparative analysis.
Sociedad Argentina de Informática e Investigación Operativa
Materia
Ciencias Informáticas
Aprendizaje por refuerzo
Algoritmo evolutivo
Cloud computing
Workflow científico
Reinforcement Learning
Evolutionary Algorithm
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/4.0/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/190539

id SEDICI_385ce57c904a5f5d31b8a4279491ce3d
oai_identifier_str oai:sedici.unlp.edu.ar:10915/190539
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en CloudComparison between evolutionary algorithms and Reinforcement Learning for workflow autoscaling on CloudRobino, Luciano I.Garí, YiselPacini, ElinaMateo, CristianYannibelli, VirginiaMonge, David A.Ciencias InformáticasAprendizaje por refuerzoAlgoritmo evolutivoCloud computingWorkflow científicoReinforcement LearningEvolutionary AlgorithmEn los últimos años, muchos experimentos científicos son realizados por medio de workflows científicos. Estas tecnologías facilitan la realización de experimentos que son computacionalmente intensivos, y que muchas veces requieren ser ejecutados en Clouds públicas. Esto hace que optimizar la ejecución de estas aplicaciones sea un problema desafiante debido a que la virtualización de recursos en Cloud crea necesidades de planificación a la vez de representar incertidumbre en la ejecución. Por este motivo, se han usado heurísticas y metaheurísticas para este problema. En particular, se ha intentado resolver el problema usando técnicas de Aprendizaje por Refuerzo y algoritmos evolutivos. En este trabajo se presenta un problema markoviano de decisión para resolver este problema desde el punto de vista de Aprendizaje por Refuerzo. En conjunto con este modelado, se presenta también una variación que permite abordar el mismo problema como un algoritmo evolutivo multiobjetivo. Estas dos estrategias son comparadas usando 4 workflows de referencia de la literatura, utilizando el simulador CloudSimPlus y máquinas virtuales presentes en Amazon. Para este análisis se estudia el costo monetario de ejecución, el tiempo total de ejecución (makespan) y la norma L2 de estas dos métricas.In recent years, many scientific experiments have been performed using scientific workflows. These technologies facilitate the  performance of computationally intensive experiments, which often require to be executed on public Clouds. Optimizing these applications becomes a challenging problem since resource virtualization demands scheduling needs to be satisfied, at the same time it has to deal with uncertainties during execution. For this reason, heuristic and metaheuristic solutions have been proposed to this problem. Indeed, Reinforcement Learning and evolutionary algorithms have been used to tackled this problem. This paper presents a Markovian Decision Problem that can be used to solve this problem using Reinforcement Learning. Additionally, a variation of this modeling is introduced to solve the same problem using multi-objective evolutionary algorithms. These two strategies are compared using 4 benchmark workflows using the simulator CloudSimPlus and virtual machines present on Amazon public clouds. Total monetary cost of the execution, total execution time (i.e. makespan), and the L2 norm of these two quantities are used for the comparative analysis.Sociedad Argentina de Informática e Investigación Operativa2025-08info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdf49-62http://sedici.unlp.edu.ar/handle/10915/190539spainfo:eu-repo/semantics/altIdentifier/url/https://revistas.unlp.edu.ar/JAIIO/article/view/19739info:eu-repo/semantics/altIdentifier/issn/2451-7496info:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2026-02-26T11:39:42Zoai:sedici.unlp.edu.ar:10915/190539Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292026-02-26 11:39:42.616SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud
Comparison between evolutionary algorithms and Reinforcement Learning for workflow autoscaling on Cloud
title Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud
spellingShingle Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud
Robino, Luciano I.
Ciencias Informáticas
Aprendizaje por refuerzo
Algoritmo evolutivo
Cloud computing
Workflow científico
Reinforcement Learning
Evolutionary Algorithm
title_short Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud
title_full Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud
title_fullStr Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud
title_full_unstemmed Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud
title_sort Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud
dc.creator.none.fl_str_mv Robino, Luciano I.
Garí, Yisel
Pacini, Elina
Mateo, Cristian
Yannibelli, Virginia
Monge, David A.
author Robino, Luciano I.
author_facet Robino, Luciano I.
Garí, Yisel
Pacini, Elina
Mateo, Cristian
Yannibelli, Virginia
Monge, David A.
author_role author
author2 Garí, Yisel
Pacini, Elina
Mateo, Cristian
Yannibelli, Virginia
Monge, David A.
author2_role author
author
author
author
author
dc.subject.none.fl_str_mv Ciencias Informáticas
Aprendizaje por refuerzo
Algoritmo evolutivo
Cloud computing
Workflow científico
Reinforcement Learning
Evolutionary Algorithm
topic Ciencias Informáticas
Aprendizaje por refuerzo
Algoritmo evolutivo
Cloud computing
Workflow científico
Reinforcement Learning
Evolutionary Algorithm
dc.description.none.fl_txt_mv En los últimos años, muchos experimentos científicos son realizados por medio de workflows científicos. Estas tecnologías facilitan la realización de experimentos que son computacionalmente intensivos, y que muchas veces requieren ser ejecutados en Clouds públicas. Esto hace que optimizar la ejecución de estas aplicaciones sea un problema desafiante debido a que la virtualización de recursos en Cloud crea necesidades de planificación a la vez de representar incertidumbre en la ejecución. Por este motivo, se han usado heurísticas y metaheurísticas para este problema. En particular, se ha intentado resolver el problema usando técnicas de Aprendizaje por Refuerzo y algoritmos evolutivos. En este trabajo se presenta un problema markoviano de decisión para resolver este problema desde el punto de vista de Aprendizaje por Refuerzo. En conjunto con este modelado, se presenta también una variación que permite abordar el mismo problema como un algoritmo evolutivo multiobjetivo. Estas dos estrategias son comparadas usando 4 workflows de referencia de la literatura, utilizando el simulador CloudSimPlus y máquinas virtuales presentes en Amazon. Para este análisis se estudia el costo monetario de ejecución, el tiempo total de ejecución (makespan) y la norma L2 de estas dos métricas.
In recent years, many scientific experiments have been performed using scientific workflows. These technologies facilitate the  performance of computationally intensive experiments, which often require to be executed on public Clouds. Optimizing these applications becomes a challenging problem since resource virtualization demands scheduling needs to be satisfied, at the same time it has to deal with uncertainties during execution. For this reason, heuristic and metaheuristic solutions have been proposed to this problem. Indeed, Reinforcement Learning and evolutionary algorithms have been used to tackled this problem. This paper presents a Markovian Decision Problem that can be used to solve this problem using Reinforcement Learning. Additionally, a variation of this modeling is introduced to solve the same problem using multi-objective evolutionary algorithms. These two strategies are compared using 4 benchmark workflows using the simulator CloudSimPlus and virtual machines present on Amazon public clouds. Total monetary cost of the execution, total execution time (i.e. makespan), and the L2 norm of these two quantities are used for the comparative analysis.
Sociedad Argentina de Informática e Investigación Operativa
description En los últimos años, muchos experimentos científicos son realizados por medio de workflows científicos. Estas tecnologías facilitan la realización de experimentos que son computacionalmente intensivos, y que muchas veces requieren ser ejecutados en Clouds públicas. Esto hace que optimizar la ejecución de estas aplicaciones sea un problema desafiante debido a que la virtualización de recursos en Cloud crea necesidades de planificación a la vez de representar incertidumbre en la ejecución. Por este motivo, se han usado heurísticas y metaheurísticas para este problema. En particular, se ha intentado resolver el problema usando técnicas de Aprendizaje por Refuerzo y algoritmos evolutivos. En este trabajo se presenta un problema markoviano de decisión para resolver este problema desde el punto de vista de Aprendizaje por Refuerzo. En conjunto con este modelado, se presenta también una variación que permite abordar el mismo problema como un algoritmo evolutivo multiobjetivo. Estas dos estrategias son comparadas usando 4 workflows de referencia de la literatura, utilizando el simulador CloudSimPlus y máquinas virtuales presentes en Amazon. Para este análisis se estudia el costo monetario de ejecución, el tiempo total de ejecución (makespan) y la norma L2 de estas dos métricas.
publishDate 2025
dc.date.none.fl_str_mv 2025-08
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/190539
url http://sedici.unlp.edu.ar/handle/10915/190539
dc.language.none.fl_str_mv spa
language spa
dc.relation.none.fl_str_mv info:eu-repo/semantics/altIdentifier/url/https://revistas.unlp.edu.ar/JAIIO/article/view/19739
info:eu-repo/semantics/altIdentifier/issn/2451-7496
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
dc.format.none.fl_str_mv application/pdf
49-62
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1858282591287771136
score 12.665996