Large Language Models en la generación automática de tests de unidad
- Autores
- Rodríguez, Martín Ezequiel
- Año de publicación
- 2025
- Idioma
- español castellano
- Tipo de recurso
- tesis de grado
- Estado
- versión aceptada
- Colaborador/a o director/a de tesis
- Fernández, Alejandro
Rossi, Gustavo Héctor - Descripción
- El diseño e implementación de pruebas unitarias es una tarea compleja que muchos programadores omiten, como lo muestran estudios sobre la baja adopción de pruebas en proyectos de software. Esta tesis explora el potencial de los Large Language Models (LLMs) en la generación automática de casos de prueba, evaluando su desempeño frente a pruebas manuales. Se desarrolló un prompt optimizado que integra código y requisitos, aplicando estrategias para cubrir casos críticos, como particiones equivalentes y valores de borde. Además, se compararon las fortalezas y debilidades de los LLMs con las de programadores capacitados, utilizando métricas cuantitativas y análisis manual.
Licenciado en Sistemas
Universidad Nacional de La Plata
Facultad de Informática - Materia
-
Informática
LLM
GPT
prompt
tests
unit tests
JUnit
particiones equivalentes
valores de borde
valores limite
cobertura
mutaciones
tests smells - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- http://creativecommons.org/licenses/by-nc-sa/4.0/
- Repositorio
- Institución
- Universidad Nacional de La Plata
- OAI Identificador
- oai:sedici.unlp.edu.ar:10915/180012
Ver los metadatos del registro completo
id |
SEDICI_ce21b1530cabc702b07f7a2f269af493 |
---|---|
oai_identifier_str |
oai:sedici.unlp.edu.ar:10915/180012 |
network_acronym_str |
SEDICI |
repository_id_str |
1329 |
network_name_str |
SEDICI (UNLP) |
spelling |
Large Language Models en la generación automática de tests de unidadRodríguez, Martín EzequielInformáticaLLMGPTprompttestsunit testsJUnitparticiones equivalentesvalores de bordevalores limitecoberturamutacionestests smellsEl diseño e implementación de pruebas unitarias es una tarea compleja que muchos programadores omiten, como lo muestran estudios sobre la baja adopción de pruebas en proyectos de software. Esta tesis explora el potencial de los Large Language Models (LLMs) en la generación automática de casos de prueba, evaluando su desempeño frente a pruebas manuales. Se desarrolló un prompt optimizado que integra código y requisitos, aplicando estrategias para cubrir casos críticos, como particiones equivalentes y valores de borde. Además, se compararon las fortalezas y debilidades de los LLMs con las de programadores capacitados, utilizando métricas cuantitativas y análisis manual.Licenciado en SistemasUniversidad Nacional de La PlataFacultad de InformáticaFernández, AlejandroRossi, Gustavo Héctor2025-04-28info:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionTesis de gradohttp://purl.org/coar/resource_type/c_7a1finfo:ar-repo/semantics/tesisDeGradoapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/180012spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-10-15T11:40:56Zoai:sedici.unlp.edu.ar:10915/180012Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-10-15 11:40:56.74SEDICI (UNLP) - Universidad Nacional de La Platafalse |
dc.title.none.fl_str_mv |
Large Language Models en la generación automática de tests de unidad |
title |
Large Language Models en la generación automática de tests de unidad |
spellingShingle |
Large Language Models en la generación automática de tests de unidad Rodríguez, Martín Ezequiel Informática LLM GPT prompt tests unit tests JUnit particiones equivalentes valores de borde valores limite cobertura mutaciones tests smells |
title_short |
Large Language Models en la generación automática de tests de unidad |
title_full |
Large Language Models en la generación automática de tests de unidad |
title_fullStr |
Large Language Models en la generación automática de tests de unidad |
title_full_unstemmed |
Large Language Models en la generación automática de tests de unidad |
title_sort |
Large Language Models en la generación automática de tests de unidad |
dc.creator.none.fl_str_mv |
Rodríguez, Martín Ezequiel |
author |
Rodríguez, Martín Ezequiel |
author_facet |
Rodríguez, Martín Ezequiel |
author_role |
author |
dc.contributor.none.fl_str_mv |
Fernández, Alejandro Rossi, Gustavo Héctor |
dc.subject.none.fl_str_mv |
Informática LLM GPT prompt tests unit tests JUnit particiones equivalentes valores de borde valores limite cobertura mutaciones tests smells |
topic |
Informática LLM GPT prompt tests unit tests JUnit particiones equivalentes valores de borde valores limite cobertura mutaciones tests smells |
dc.description.none.fl_txt_mv |
El diseño e implementación de pruebas unitarias es una tarea compleja que muchos programadores omiten, como lo muestran estudios sobre la baja adopción de pruebas en proyectos de software. Esta tesis explora el potencial de los Large Language Models (LLMs) en la generación automática de casos de prueba, evaluando su desempeño frente a pruebas manuales. Se desarrolló un prompt optimizado que integra código y requisitos, aplicando estrategias para cubrir casos críticos, como particiones equivalentes y valores de borde. Además, se compararon las fortalezas y debilidades de los LLMs con las de programadores capacitados, utilizando métricas cuantitativas y análisis manual. Licenciado en Sistemas Universidad Nacional de La Plata Facultad de Informática |
description |
El diseño e implementación de pruebas unitarias es una tarea compleja que muchos programadores omiten, como lo muestran estudios sobre la baja adopción de pruebas en proyectos de software. Esta tesis explora el potencial de los Large Language Models (LLMs) en la generación automática de casos de prueba, evaluando su desempeño frente a pruebas manuales. Se desarrolló un prompt optimizado que integra código y requisitos, aplicando estrategias para cubrir casos críticos, como particiones equivalentes y valores de borde. Además, se compararon las fortalezas y debilidades de los LLMs con las de programadores capacitados, utilizando métricas cuantitativas y análisis manual. |
publishDate |
2025 |
dc.date.none.fl_str_mv |
2025-04-28 |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis info:eu-repo/semantics/acceptedVersion Tesis de grado http://purl.org/coar/resource_type/c_7a1f info:ar-repo/semantics/tesisDeGrado |
format |
bachelorThesis |
status_str |
acceptedVersion |
dc.identifier.none.fl_str_mv |
http://sedici.unlp.edu.ar/handle/10915/180012 |
url |
http://sedici.unlp.edu.ar/handle/10915/180012 |
dc.language.none.fl_str_mv |
spa |
language |
spa |
dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:SEDICI (UNLP) instname:Universidad Nacional de La Plata instacron:UNLP |
reponame_str |
SEDICI (UNLP) |
collection |
SEDICI (UNLP) |
instname_str |
Universidad Nacional de La Plata |
instacron_str |
UNLP |
institution |
UNLP |
repository.name.fl_str_mv |
SEDICI (UNLP) - Universidad Nacional de La Plata |
repository.mail.fl_str_mv |
alira@sedici.unlp.edu.ar |
_version_ |
1846064420623482880 |
score |
13.22299 |