Inspección de modelos de características: aprovechando patrones de defectos y asistencia de IA

Autores
Durán, Juan Eduardo
Año de publicación
2025
Idioma
inglés
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
Los modelos de características (MC) son esenciales para la variabilidad en líneas de productos de software (LPS), haciendo crucial el análisis de defectos. Las inspecciones manuales son clave para problemas de dominio, requisitos y defectos no sintácticos. Las listas de verificación ofrecen inspecciones sistemáticas, reproducibles, y menos dependientes de la experiencia del inspector. Los métodos existentes para MC se basan en clasificaciones de defectos de requisitos o tipos de defectos fáciles de recordar, referenciando modelos o documentos externos. Ellos omiten patrones de defectos no obvios o fáciles de olvidar y son inaccesibles en entornos con recursos limitados. Este estudio propone una inspección de MC independiente de modelos externos, integrando clasificaciones de la literatura con patrones de defectos, centrándose en características de comportamiento. Empleamos modelos de lenguaje grandes (MLG) para mejorar la eficiencia y precisión de la inspección. Presentamos un árbol de clasificación de defectos derivado empíricamente. Los resultados empíricos de nuestro enfoque indican para los patrones de defectos que el 23% fueron no obvios y el 23% fáciles de olvidar. Los patrones no-obvios ayudaron a detectar el 60% de los defectos de ambigüedad, el 14.5% de defectos relacionados con reglas de negocio y el 11.7% de defectos de incompletitud. Los MLG contribuyeron a identificar entre el 15.5% y el 59.4% del total de los defectos. Nuestro enfoque es accesible para equipos con recursos limitados y adecuado para entornos ágiles, diseño temprano, educación e industrias complejas, uniendo teoría y práctica y estableciendo la inspección asistida por IA como una herramienta valiosa.
Feature models (FM) are vital for representing variability in software product lines (PL), making defect analysis critical. Manual inspections are essential for finding issues tied to domain understanding, requirements organization, and defects beyond syntactic checks. Checklist-based inspections are systematic, reproducible, and less reliant on inspector expertise. Existing methods for FM inspections typically rely on requirements-based defect classifications or easily recalled defect types, often referencing supplementary models or documents. These methods overlook non-obvious or easily forgotten defect patterns. Additionally, they lack accessibility in resource-constrained settings, with dependence on external artifacts further complicating inspections. This study proposes an inspection approach independent of external models, integrating defect classifications from literature with defect patterns. The method focuses on behavioral features and employs large language models (LLMs) to enhance inspection efficiency and accuracy. Central to this approach is a hierarchical defect classification tree, empirically derived. Empirical results for our approach indicate that 23% of defect patterns were non-obvious, while 23% were easy to forget. Nonobvious patterns helped detect 60% of ambiguity defects, 14.5% of business rulerelated defects, and 11.7% of incompleteness defects. LLMs contributed to 15.5%–59.4% of total defects identified. Our approach is accessible to resourcelimited teams. Our approach is suited for agile environments, early design stages, education, and complex industries, bridging theory and practice while establishing AI-assisted inspection as a valuable tool.
Sociedad Argentina de Informática e Investigación Operativa
Materia
Ciencias Informáticas
inspección basada en listas de verificación
modelos de características
modelos de lenguaje grandes
líneas de productos de software
Checklist Based Inspection
Feature Models
Large Language Models
Software Product Lines
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/4.0/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/190269

id SEDICI_70b99deec3834691a23d5717fffed9db
oai_identifier_str oai:sedici.unlp.edu.ar:10915/190269
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Inspección de modelos de características: aprovechando patrones de defectos y asistencia de IAFeature Model Inspection: Leveraging Defect Patterns and AI AssistanceDurán, Juan EduardoCiencias Informáticasinspección basada en listas de verificaciónmodelos de característicasmodelos de lenguaje grandeslíneas de productos de softwareChecklist Based InspectionFeature ModelsLarge Language ModelsSoftware Product LinesLos modelos de características (MC) son esenciales para la variabilidad en líneas de productos de software (LPS), haciendo crucial el análisis de defectos. Las inspecciones manuales son clave para problemas de dominio, requisitos y defectos no sintácticos. Las listas de verificación ofrecen inspecciones sistemáticas, reproducibles, y menos dependientes de la experiencia del inspector. Los métodos existentes para MC se basan en clasificaciones de defectos de requisitos o tipos de defectos fáciles de recordar, referenciando modelos o documentos externos. Ellos omiten patrones de defectos no obvios o fáciles de olvidar y son inaccesibles en entornos con recursos limitados. Este estudio propone una inspección de MC independiente de modelos externos, integrando clasificaciones de la literatura con patrones de defectos, centrándose en características de comportamiento. Empleamos modelos de lenguaje grandes (MLG) para mejorar la eficiencia y precisión de la inspección. Presentamos un árbol de clasificación de defectos derivado empíricamente. Los resultados empíricos de nuestro enfoque indican para los patrones de defectos que el 23% fueron no obvios y el 23% fáciles de olvidar. Los patrones no-obvios ayudaron a detectar el 60% de los defectos de ambigüedad, el 14.5% de defectos relacionados con reglas de negocio y el 11.7% de defectos de incompletitud. Los MLG contribuyeron a identificar entre el 15.5% y el 59.4% del total de los defectos. Nuestro enfoque es accesible para equipos con recursos limitados y adecuado para entornos ágiles, diseño temprano, educación e industrias complejas, uniendo teoría y práctica y estableciendo la inspección asistida por IA como una herramienta valiosa.Feature models (FM) are vital for representing variability in software product lines (PL), making defect analysis critical. Manual inspections are essential for finding issues tied to domain understanding, requirements organization, and defects beyond syntactic checks. Checklist-based inspections are systematic, reproducible, and less reliant on inspector expertise. Existing methods for FM inspections typically rely on requirements-based defect classifications or easily recalled defect types, often referencing supplementary models or documents. These methods overlook non-obvious or easily forgotten defect patterns. Additionally, they lack accessibility in resource-constrained settings, with dependence on external artifacts further complicating inspections. This study proposes an inspection approach independent of external models, integrating defect classifications from literature with defect patterns. The method focuses on behavioral features and employs large language models (LLMs) to enhance inspection efficiency and accuracy. Central to this approach is a hierarchical defect classification tree, empirically derived. Empirical results for our approach indicate that 23% of defect patterns were non-obvious, while 23% were easy to forget. Nonobvious patterns helped detect 60% of ambiguity defects, 14.5% of business rulerelated defects, and 11.7% of incompleteness defects. LLMs contributed to 15.5%–59.4% of total defects identified. Our approach is accessible to resourcelimited teams. Our approach is suited for agile environments, early design stages, education, and complex industries, bridging theory and practice while establishing AI-assisted inspection as a valuable tool.Sociedad Argentina de Informática e Investigación Operativa2025-08info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdf87-100http://sedici.unlp.edu.ar/handle/10915/190269enginfo:eu-repo/semantics/altIdentifier/url/https://revistas.unlp.edu.ar/JAIIO/article/view/19538info:eu-repo/semantics/altIdentifier/issn/2451-7496info:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2026-02-26T11:39:46Zoai:sedici.unlp.edu.ar:10915/190269Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292026-02-26 11:39:46.677SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Inspección de modelos de características: aprovechando patrones de defectos y asistencia de IA
Feature Model Inspection: Leveraging Defect Patterns and AI Assistance
title Inspección de modelos de características: aprovechando patrones de defectos y asistencia de IA
spellingShingle Inspección de modelos de características: aprovechando patrones de defectos y asistencia de IA
Durán, Juan Eduardo
Ciencias Informáticas
inspección basada en listas de verificación
modelos de características
modelos de lenguaje grandes
líneas de productos de software
Checklist Based Inspection
Feature Models
Large Language Models
Software Product Lines
title_short Inspección de modelos de características: aprovechando patrones de defectos y asistencia de IA
title_full Inspección de modelos de características: aprovechando patrones de defectos y asistencia de IA
title_fullStr Inspección de modelos de características: aprovechando patrones de defectos y asistencia de IA
title_full_unstemmed Inspección de modelos de características: aprovechando patrones de defectos y asistencia de IA
title_sort Inspección de modelos de características: aprovechando patrones de defectos y asistencia de IA
dc.creator.none.fl_str_mv Durán, Juan Eduardo
author Durán, Juan Eduardo
author_facet Durán, Juan Eduardo
author_role author
dc.subject.none.fl_str_mv Ciencias Informáticas
inspección basada en listas de verificación
modelos de características
modelos de lenguaje grandes
líneas de productos de software
Checklist Based Inspection
Feature Models
Large Language Models
Software Product Lines
topic Ciencias Informáticas
inspección basada en listas de verificación
modelos de características
modelos de lenguaje grandes
líneas de productos de software
Checklist Based Inspection
Feature Models
Large Language Models
Software Product Lines
dc.description.none.fl_txt_mv Los modelos de características (MC) son esenciales para la variabilidad en líneas de productos de software (LPS), haciendo crucial el análisis de defectos. Las inspecciones manuales son clave para problemas de dominio, requisitos y defectos no sintácticos. Las listas de verificación ofrecen inspecciones sistemáticas, reproducibles, y menos dependientes de la experiencia del inspector. Los métodos existentes para MC se basan en clasificaciones de defectos de requisitos o tipos de defectos fáciles de recordar, referenciando modelos o documentos externos. Ellos omiten patrones de defectos no obvios o fáciles de olvidar y son inaccesibles en entornos con recursos limitados. Este estudio propone una inspección de MC independiente de modelos externos, integrando clasificaciones de la literatura con patrones de defectos, centrándose en características de comportamiento. Empleamos modelos de lenguaje grandes (MLG) para mejorar la eficiencia y precisión de la inspección. Presentamos un árbol de clasificación de defectos derivado empíricamente. Los resultados empíricos de nuestro enfoque indican para los patrones de defectos que el 23% fueron no obvios y el 23% fáciles de olvidar. Los patrones no-obvios ayudaron a detectar el 60% de los defectos de ambigüedad, el 14.5% de defectos relacionados con reglas de negocio y el 11.7% de defectos de incompletitud. Los MLG contribuyeron a identificar entre el 15.5% y el 59.4% del total de los defectos. Nuestro enfoque es accesible para equipos con recursos limitados y adecuado para entornos ágiles, diseño temprano, educación e industrias complejas, uniendo teoría y práctica y estableciendo la inspección asistida por IA como una herramienta valiosa.
Feature models (FM) are vital for representing variability in software product lines (PL), making defect analysis critical. Manual inspections are essential for finding issues tied to domain understanding, requirements organization, and defects beyond syntactic checks. Checklist-based inspections are systematic, reproducible, and less reliant on inspector expertise. Existing methods for FM inspections typically rely on requirements-based defect classifications or easily recalled defect types, often referencing supplementary models or documents. These methods overlook non-obvious or easily forgotten defect patterns. Additionally, they lack accessibility in resource-constrained settings, with dependence on external artifacts further complicating inspections. This study proposes an inspection approach independent of external models, integrating defect classifications from literature with defect patterns. The method focuses on behavioral features and employs large language models (LLMs) to enhance inspection efficiency and accuracy. Central to this approach is a hierarchical defect classification tree, empirically derived. Empirical results for our approach indicate that 23% of defect patterns were non-obvious, while 23% were easy to forget. Nonobvious patterns helped detect 60% of ambiguity defects, 14.5% of business rulerelated defects, and 11.7% of incompleteness defects. LLMs contributed to 15.5%–59.4% of total defects identified. Our approach is accessible to resourcelimited teams. Our approach is suited for agile environments, early design stages, education, and complex industries, bridging theory and practice while establishing AI-assisted inspection as a valuable tool.
Sociedad Argentina de Informática e Investigación Operativa
description Los modelos de características (MC) son esenciales para la variabilidad en líneas de productos de software (LPS), haciendo crucial el análisis de defectos. Las inspecciones manuales son clave para problemas de dominio, requisitos y defectos no sintácticos. Las listas de verificación ofrecen inspecciones sistemáticas, reproducibles, y menos dependientes de la experiencia del inspector. Los métodos existentes para MC se basan en clasificaciones de defectos de requisitos o tipos de defectos fáciles de recordar, referenciando modelos o documentos externos. Ellos omiten patrones de defectos no obvios o fáciles de olvidar y son inaccesibles en entornos con recursos limitados. Este estudio propone una inspección de MC independiente de modelos externos, integrando clasificaciones de la literatura con patrones de defectos, centrándose en características de comportamiento. Empleamos modelos de lenguaje grandes (MLG) para mejorar la eficiencia y precisión de la inspección. Presentamos un árbol de clasificación de defectos derivado empíricamente. Los resultados empíricos de nuestro enfoque indican para los patrones de defectos que el 23% fueron no obvios y el 23% fáciles de olvidar. Los patrones no-obvios ayudaron a detectar el 60% de los defectos de ambigüedad, el 14.5% de defectos relacionados con reglas de negocio y el 11.7% de defectos de incompletitud. Los MLG contribuyeron a identificar entre el 15.5% y el 59.4% del total de los defectos. Nuestro enfoque es accesible para equipos con recursos limitados y adecuado para entornos ágiles, diseño temprano, educación e industrias complejas, uniendo teoría y práctica y estableciendo la inspección asistida por IA como una herramienta valiosa.
publishDate 2025
dc.date.none.fl_str_mv 2025-08
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/190269
url http://sedici.unlp.edu.ar/handle/10915/190269
dc.language.none.fl_str_mv eng
language eng
dc.relation.none.fl_str_mv info:eu-repo/semantics/altIdentifier/url/https://revistas.unlp.edu.ar/JAIIO/article/view/19538
info:eu-repo/semantics/altIdentifier/issn/2451-7496
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
dc.format.none.fl_str_mv application/pdf
87-100
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1858282592114049024
score 12.665996