Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud
- Autores
- Robino, Luciano I.; Garí, Yisel; Pacini, Elina; Mateo, Cristian; Yannibelli, Virginia; Monge, David A.
- Año de publicación
- 2025
- Idioma
- español castellano
- Tipo de recurso
- documento de conferencia
- Estado
- versión publicada
- Descripción
- En los últimos años, muchos experimentos científicos son realizados por medio de workflows científicos. Estas tecnologías facilitan la realización de experimentos que son computacionalmente intensivos, y que muchas veces requieren ser ejecutados en Clouds públicas. Esto hace que optimizar la ejecución de estas aplicaciones sea un problema desafiante debido a que la virtualización de recursos en Cloud crea necesidades de planificación a la vez de representar incertidumbre en la ejecución. Por este motivo, se han usado heurísticas y metaheurísticas para este problema. En particular, se ha intentado resolver el problema usando técnicas de Aprendizaje por Refuerzo y algoritmos evolutivos. En este trabajo se presenta un problema markoviano de decisión para resolver este problema desde el punto de vista de Aprendizaje por Refuerzo. En conjunto con este modelado, se presenta también una variación que permite abordar el mismo problema como un algoritmo evolutivo multiobjetivo. Estas dos estrategias son comparadas usando 4 workflows de referencia de la literatura, utilizando el simulador CloudSimPlus y máquinas virtuales presentes en Amazon. Para este análisis se estudia el costo monetario de ejecución, el tiempo total de ejecución (makespan) y la norma L2 de estas dos métricas.
In recent years, many scientific experiments have been performed using scientific workflows. These technologies facilitate the performance of computationally intensive experiments, which often require to be executed on public Clouds. Optimizing these applications becomes a challenging problem since resource virtualization demands scheduling needs to be satisfied, at the same time it has to deal with uncertainties during execution. For this reason, heuristic and metaheuristic solutions have been proposed to this problem. Indeed, Reinforcement Learning and evolutionary algorithms have been used to tackled this problem. This paper presents a Markovian Decision Problem that can be used to solve this problem using Reinforcement Learning. Additionally, a variation of this modeling is introduced to solve the same problem using multi-objective evolutionary algorithms. These two strategies are compared using 4 benchmark workflows using the simulator CloudSimPlus and virtual machines present on Amazon public clouds. Total monetary cost of the execution, total execution time (i.e. makespan), and the L2 norm of these two quantities are used for the comparative analysis.
Sociedad Argentina de Informática e Investigación Operativa - Materia
-
Ciencias Informáticas
Aprendizaje por refuerzo
Algoritmo evolutivo
Cloud computing
Workflow científico
Reinforcement Learning
Evolutionary Algorithm - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- http://creativecommons.org/licenses/by-nc-sa/4.0/
- Repositorio
.jpg)
- Institución
- Universidad Nacional de La Plata
- OAI Identificador
- oai:sedici.unlp.edu.ar:10915/190539
Ver los metadatos del registro completo
| id |
SEDICI_385ce57c904a5f5d31b8a4279491ce3d |
|---|---|
| oai_identifier_str |
oai:sedici.unlp.edu.ar:10915/190539 |
| network_acronym_str |
SEDICI |
| repository_id_str |
1329 |
| network_name_str |
SEDICI (UNLP) |
| spelling |
Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en CloudComparison between evolutionary algorithms and Reinforcement Learning for workflow autoscaling on CloudRobino, Luciano I.Garí, YiselPacini, ElinaMateo, CristianYannibelli, VirginiaMonge, David A.Ciencias InformáticasAprendizaje por refuerzoAlgoritmo evolutivoCloud computingWorkflow científicoReinforcement LearningEvolutionary AlgorithmEn los últimos años, muchos experimentos científicos son realizados por medio de workflows científicos. Estas tecnologías facilitan la realización de experimentos que son computacionalmente intensivos, y que muchas veces requieren ser ejecutados en Clouds públicas. Esto hace que optimizar la ejecución de estas aplicaciones sea un problema desafiante debido a que la virtualización de recursos en Cloud crea necesidades de planificación a la vez de representar incertidumbre en la ejecución. Por este motivo, se han usado heurísticas y metaheurísticas para este problema. En particular, se ha intentado resolver el problema usando técnicas de Aprendizaje por Refuerzo y algoritmos evolutivos. En este trabajo se presenta un problema markoviano de decisión para resolver este problema desde el punto de vista de Aprendizaje por Refuerzo. En conjunto con este modelado, se presenta también una variación que permite abordar el mismo problema como un algoritmo evolutivo multiobjetivo. Estas dos estrategias son comparadas usando 4 workflows de referencia de la literatura, utilizando el simulador CloudSimPlus y máquinas virtuales presentes en Amazon. Para este análisis se estudia el costo monetario de ejecución, el tiempo total de ejecución (makespan) y la norma L2 de estas dos métricas.In recent years, many scientific experiments have been performed using scientific workflows. These technologies facilitate the performance of computationally intensive experiments, which often require to be executed on public Clouds. Optimizing these applications becomes a challenging problem since resource virtualization demands scheduling needs to be satisfied, at the same time it has to deal with uncertainties during execution. For this reason, heuristic and metaheuristic solutions have been proposed to this problem. Indeed, Reinforcement Learning and evolutionary algorithms have been used to tackled this problem. This paper presents a Markovian Decision Problem that can be used to solve this problem using Reinforcement Learning. Additionally, a variation of this modeling is introduced to solve the same problem using multi-objective evolutionary algorithms. These two strategies are compared using 4 benchmark workflows using the simulator CloudSimPlus and virtual machines present on Amazon public clouds. Total monetary cost of the execution, total execution time (i.e. makespan), and the L2 norm of these two quantities are used for the comparative analysis.Sociedad Argentina de Informática e Investigación Operativa2025-08info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdf49-62http://sedici.unlp.edu.ar/handle/10915/190539spainfo:eu-repo/semantics/altIdentifier/url/https://revistas.unlp.edu.ar/JAIIO/article/view/19739info:eu-repo/semantics/altIdentifier/issn/2451-7496info:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2026-02-26T11:39:42Zoai:sedici.unlp.edu.ar:10915/190539Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292026-02-26 11:39:42.616SEDICI (UNLP) - Universidad Nacional de La Platafalse |
| dc.title.none.fl_str_mv |
Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud Comparison between evolutionary algorithms and Reinforcement Learning for workflow autoscaling on Cloud |
| title |
Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud |
| spellingShingle |
Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud Robino, Luciano I. Ciencias Informáticas Aprendizaje por refuerzo Algoritmo evolutivo Cloud computing Workflow científico Reinforcement Learning Evolutionary Algorithm |
| title_short |
Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud |
| title_full |
Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud |
| title_fullStr |
Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud |
| title_full_unstemmed |
Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud |
| title_sort |
Comparación entre algoritmos evolutivos y aprendizaje por refuerzo para autoescalado de workflows en Cloud |
| dc.creator.none.fl_str_mv |
Robino, Luciano I. Garí, Yisel Pacini, Elina Mateo, Cristian Yannibelli, Virginia Monge, David A. |
| author |
Robino, Luciano I. |
| author_facet |
Robino, Luciano I. Garí, Yisel Pacini, Elina Mateo, Cristian Yannibelli, Virginia Monge, David A. |
| author_role |
author |
| author2 |
Garí, Yisel Pacini, Elina Mateo, Cristian Yannibelli, Virginia Monge, David A. |
| author2_role |
author author author author author |
| dc.subject.none.fl_str_mv |
Ciencias Informáticas Aprendizaje por refuerzo Algoritmo evolutivo Cloud computing Workflow científico Reinforcement Learning Evolutionary Algorithm |
| topic |
Ciencias Informáticas Aprendizaje por refuerzo Algoritmo evolutivo Cloud computing Workflow científico Reinforcement Learning Evolutionary Algorithm |
| dc.description.none.fl_txt_mv |
En los últimos años, muchos experimentos científicos son realizados por medio de workflows científicos. Estas tecnologías facilitan la realización de experimentos que son computacionalmente intensivos, y que muchas veces requieren ser ejecutados en Clouds públicas. Esto hace que optimizar la ejecución de estas aplicaciones sea un problema desafiante debido a que la virtualización de recursos en Cloud crea necesidades de planificación a la vez de representar incertidumbre en la ejecución. Por este motivo, se han usado heurísticas y metaheurísticas para este problema. En particular, se ha intentado resolver el problema usando técnicas de Aprendizaje por Refuerzo y algoritmos evolutivos. En este trabajo se presenta un problema markoviano de decisión para resolver este problema desde el punto de vista de Aprendizaje por Refuerzo. En conjunto con este modelado, se presenta también una variación que permite abordar el mismo problema como un algoritmo evolutivo multiobjetivo. Estas dos estrategias son comparadas usando 4 workflows de referencia de la literatura, utilizando el simulador CloudSimPlus y máquinas virtuales presentes en Amazon. Para este análisis se estudia el costo monetario de ejecución, el tiempo total de ejecución (makespan) y la norma L2 de estas dos métricas. In recent years, many scientific experiments have been performed using scientific workflows. These technologies facilitate the performance of computationally intensive experiments, which often require to be executed on public Clouds. Optimizing these applications becomes a challenging problem since resource virtualization demands scheduling needs to be satisfied, at the same time it has to deal with uncertainties during execution. For this reason, heuristic and metaheuristic solutions have been proposed to this problem. Indeed, Reinforcement Learning and evolutionary algorithms have been used to tackled this problem. This paper presents a Markovian Decision Problem that can be used to solve this problem using Reinforcement Learning. Additionally, a variation of this modeling is introduced to solve the same problem using multi-objective evolutionary algorithms. These two strategies are compared using 4 benchmark workflows using the simulator CloudSimPlus and virtual machines present on Amazon public clouds. Total monetary cost of the execution, total execution time (i.e. makespan), and the L2 norm of these two quantities are used for the comparative analysis. Sociedad Argentina de Informática e Investigación Operativa |
| description |
En los últimos años, muchos experimentos científicos son realizados por medio de workflows científicos. Estas tecnologías facilitan la realización de experimentos que son computacionalmente intensivos, y que muchas veces requieren ser ejecutados en Clouds públicas. Esto hace que optimizar la ejecución de estas aplicaciones sea un problema desafiante debido a que la virtualización de recursos en Cloud crea necesidades de planificación a la vez de representar incertidumbre en la ejecución. Por este motivo, se han usado heurísticas y metaheurísticas para este problema. En particular, se ha intentado resolver el problema usando técnicas de Aprendizaje por Refuerzo y algoritmos evolutivos. En este trabajo se presenta un problema markoviano de decisión para resolver este problema desde el punto de vista de Aprendizaje por Refuerzo. En conjunto con este modelado, se presenta también una variación que permite abordar el mismo problema como un algoritmo evolutivo multiobjetivo. Estas dos estrategias son comparadas usando 4 workflows de referencia de la literatura, utilizando el simulador CloudSimPlus y máquinas virtuales presentes en Amazon. Para este análisis se estudia el costo monetario de ejecución, el tiempo total de ejecución (makespan) y la norma L2 de estas dos métricas. |
| publishDate |
2025 |
| dc.date.none.fl_str_mv |
2025-08 |
| dc.type.none.fl_str_mv |
info:eu-repo/semantics/conferenceObject info:eu-repo/semantics/publishedVersion Objeto de conferencia http://purl.org/coar/resource_type/c_5794 info:ar-repo/semantics/documentoDeConferencia |
| format |
conferenceObject |
| status_str |
publishedVersion |
| dc.identifier.none.fl_str_mv |
http://sedici.unlp.edu.ar/handle/10915/190539 |
| url |
http://sedici.unlp.edu.ar/handle/10915/190539 |
| dc.language.none.fl_str_mv |
spa |
| language |
spa |
| dc.relation.none.fl_str_mv |
info:eu-repo/semantics/altIdentifier/url/https://revistas.unlp.edu.ar/JAIIO/article/view/19739 info:eu-repo/semantics/altIdentifier/issn/2451-7496 |
| dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
| dc.format.none.fl_str_mv |
application/pdf 49-62 |
| dc.source.none.fl_str_mv |
reponame:SEDICI (UNLP) instname:Universidad Nacional de La Plata instacron:UNLP |
| reponame_str |
SEDICI (UNLP) |
| collection |
SEDICI (UNLP) |
| instname_str |
Universidad Nacional de La Plata |
| instacron_str |
UNLP |
| institution |
UNLP |
| repository.name.fl_str_mv |
SEDICI (UNLP) - Universidad Nacional de La Plata |
| repository.mail.fl_str_mv |
alira@sedici.unlp.edu.ar |
| _version_ |
1858282591287771136 |
| score |
12.665996 |