Large Language Models en la generación automática de tests de unidad

Autores
Rodríguez, Martín Ezequiel
Año de publicación
2025
Idioma
español castellano
Tipo de recurso
tesis de grado
Estado
versión aceptada
Colaborador/a o director/a de tesis
Fernández, Alejandro
Rossi, Gustavo Héctor
Descripción
El diseño e implementación de pruebas unitarias es una tarea compleja que muchos programadores omiten, como lo muestran estudios sobre la baja adopción de pruebas en proyectos de software. Esta tesis explora el potencial de los Large Language Models (LLMs) en la generación automática de casos de prueba, evaluando su desempeño frente a pruebas manuales. Se desarrolló un prompt optimizado que integra código y requisitos, aplicando estrategias para cubrir casos críticos, como particiones equivalentes y valores de borde. Además, se compararon las fortalezas y debilidades de los LLMs con las de programadores capacitados, utilizando métricas cuantitativas y análisis manual.
Licenciado en Sistemas
Universidad Nacional de La Plata
Facultad de Informática
Materia
Informática
LLM
GPT
prompt
tests
unit tests
JUnit
particiones equivalentes
valores de borde
valores limite
cobertura
mutaciones
tests smells
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/4.0/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/180012

id SEDICI_ce21b1530cabc702b07f7a2f269af493
oai_identifier_str oai:sedici.unlp.edu.ar:10915/180012
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Large Language Models en la generación automática de tests de unidadRodríguez, Martín EzequielInformáticaLLMGPTprompttestsunit testsJUnitparticiones equivalentesvalores de bordevalores limitecoberturamutacionestests smellsEl diseño e implementación de pruebas unitarias es una tarea compleja que muchos programadores omiten, como lo muestran estudios sobre la baja adopción de pruebas en proyectos de software. Esta tesis explora el potencial de los Large Language Models (LLMs) en la generación automática de casos de prueba, evaluando su desempeño frente a pruebas manuales. Se desarrolló un prompt optimizado que integra código y requisitos, aplicando estrategias para cubrir casos críticos, como particiones equivalentes y valores de borde. Además, se compararon las fortalezas y debilidades de los LLMs con las de programadores capacitados, utilizando métricas cuantitativas y análisis manual.Licenciado en SistemasUniversidad Nacional de La PlataFacultad de InformáticaFernández, AlejandroRossi, Gustavo Héctor2025-04-28info:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionTesis de gradohttp://purl.org/coar/resource_type/c_7a1finfo:ar-repo/semantics/tesisDeGradoapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/180012spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-10-15T11:40:56Zoai:sedici.unlp.edu.ar:10915/180012Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-10-15 11:40:56.74SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Large Language Models en la generación automática de tests de unidad
title Large Language Models en la generación automática de tests de unidad
spellingShingle Large Language Models en la generación automática de tests de unidad
Rodríguez, Martín Ezequiel
Informática
LLM
GPT
prompt
tests
unit tests
JUnit
particiones equivalentes
valores de borde
valores limite
cobertura
mutaciones
tests smells
title_short Large Language Models en la generación automática de tests de unidad
title_full Large Language Models en la generación automática de tests de unidad
title_fullStr Large Language Models en la generación automática de tests de unidad
title_full_unstemmed Large Language Models en la generación automática de tests de unidad
title_sort Large Language Models en la generación automática de tests de unidad
dc.creator.none.fl_str_mv Rodríguez, Martín Ezequiel
author Rodríguez, Martín Ezequiel
author_facet Rodríguez, Martín Ezequiel
author_role author
dc.contributor.none.fl_str_mv Fernández, Alejandro
Rossi, Gustavo Héctor
dc.subject.none.fl_str_mv Informática
LLM
GPT
prompt
tests
unit tests
JUnit
particiones equivalentes
valores de borde
valores limite
cobertura
mutaciones
tests smells
topic Informática
LLM
GPT
prompt
tests
unit tests
JUnit
particiones equivalentes
valores de borde
valores limite
cobertura
mutaciones
tests smells
dc.description.none.fl_txt_mv El diseño e implementación de pruebas unitarias es una tarea compleja que muchos programadores omiten, como lo muestran estudios sobre la baja adopción de pruebas en proyectos de software. Esta tesis explora el potencial de los Large Language Models (LLMs) en la generación automática de casos de prueba, evaluando su desempeño frente a pruebas manuales. Se desarrolló un prompt optimizado que integra código y requisitos, aplicando estrategias para cubrir casos críticos, como particiones equivalentes y valores de borde. Además, se compararon las fortalezas y debilidades de los LLMs con las de programadores capacitados, utilizando métricas cuantitativas y análisis manual.
Licenciado en Sistemas
Universidad Nacional de La Plata
Facultad de Informática
description El diseño e implementación de pruebas unitarias es una tarea compleja que muchos programadores omiten, como lo muestran estudios sobre la baja adopción de pruebas en proyectos de software. Esta tesis explora el potencial de los Large Language Models (LLMs) en la generación automática de casos de prueba, evaluando su desempeño frente a pruebas manuales. Se desarrolló un prompt optimizado que integra código y requisitos, aplicando estrategias para cubrir casos críticos, como particiones equivalentes y valores de borde. Además, se compararon las fortalezas y debilidades de los LLMs con las de programadores capacitados, utilizando métricas cuantitativas y análisis manual.
publishDate 2025
dc.date.none.fl_str_mv 2025-04-28
dc.type.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
info:eu-repo/semantics/acceptedVersion
Tesis de grado
http://purl.org/coar/resource_type/c_7a1f
info:ar-repo/semantics/tesisDeGrado
format bachelorThesis
status_str acceptedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/180012
url http://sedici.unlp.edu.ar/handle/10915/180012
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1846064420623482880
score 13.22299