Variante enfocada en fidelidad de un algoritmo de extracción de reglas en redes neuronales artificiales
- Autores
- Jacinto, MIlagros Aylén; Moschettoni, Martín; Pons, Claudia Fabiana; Pérez, Gabriela Alejandra
- Año de publicación
- 2023
- Idioma
- español castellano
- Tipo de recurso
- documento de conferencia
- Estado
- versión publicada
- Descripción
- Las redes neuronales tienen la capacidad de alcanzar altos niveles de precisión en tareas de clasificación, pero su falta de explicabilidad es un claro inconveniente y lleva a denominarlas “cajas negras”. En este artículo, se presenta una modificación del algoritmo RxREN que se centra en la explicabilidad de las redes neuronales generando reglas precisas y fácilmente interpretables. El objetivo de esta modificación es comprender el proceso de decisión de la red neuronal, y para lograrlo, se analiza la relación entre el nivel de abstracción y su fidelidad. Se implementó un algoritmo con tres configuraciones en dos problemas distintos (Iris, WBC) Se analizó cómo el nivel de abstracción de las reglas afecta su fidelidad, buscando reglas precisas y evaluando el impacto del nivel de abstracción. En conclusión, este estudio tiene por objetivo mejorar significativamente la fidelidad de las reglas generadas por el algoritmo, permitiendo a los usuarios entender mejor el proceso de clasificación y además destacar la importancia de considerar el nivel de abstracción al extraer reglas interpretables y fieles.
Neural networks have the ability to achieve high levels of accuracy in classification tasks, but their lack of explainability is a clear drawback and leads to call them ”black boxes”. In this paper, we present a modification of the RxREN algorithm that focuses on the explainability of neural networks by generating accurate and easily interpretable rules. The objective of this modification is to understand the neural network decision process, and for this purpose, the relationship between the level of abstraction and its fidelity is analyzed. An algorithm with three configurations was implemented in two different problems (Iris, WBC). It was analyzed how the abstraction level of the rules affects their fidelity, searching for accurate rules and evaluating the impact of the abstraction level. In conclusion, this study aims to significantly improve the fidelity of the rules generated by the algorithm, allowing users to better understand the classification process and also it is intended to highlight the importance of considering the level of abstraction when extracting interpretable and faithful rules.
Sociedad Argentina de Informática e Investigación Operativa - Materia
-
Ciencias Informáticas
Fidelidad
Redes Neuronales Artificiales
Inteligencia Artificial Explicable
XIA - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- http://creativecommons.org/licenses/by-nc-sa/4.0/
- Repositorio
- Institución
- Universidad Nacional de La Plata
- OAI Identificador
- oai:sedici.unlp.edu.ar:10915/166459
Ver los metadatos del registro completo
id |
SEDICI_cb42ee44df64ca22d234b08107e41258 |
---|---|
oai_identifier_str |
oai:sedici.unlp.edu.ar:10915/166459 |
network_acronym_str |
SEDICI |
repository_id_str |
1329 |
network_name_str |
SEDICI (UNLP) |
spelling |
Variante enfocada en fidelidad de un algoritmo de extracción de reglas en redes neuronales artificialesFidelity Focused Variant of a rule extraction algorithm in artificial neural networksJacinto, MIlagros AylénMoschettoni, MartínPons, Claudia FabianaPérez, Gabriela AlejandraCiencias InformáticasFidelidadRedes Neuronales ArtificialesInteligencia Artificial ExplicableXIALas redes neuronales tienen la capacidad de alcanzar altos niveles de precisión en tareas de clasificación, pero su falta de explicabilidad es un claro inconveniente y lleva a denominarlas “cajas negras”. En este artículo, se presenta una modificación del algoritmo RxREN que se centra en la explicabilidad de las redes neuronales generando reglas precisas y fácilmente interpretables. El objetivo de esta modificación es comprender el proceso de decisión de la red neuronal, y para lograrlo, se analiza la relación entre el nivel de abstracción y su fidelidad. Se implementó un algoritmo con tres configuraciones en dos problemas distintos (Iris, WBC) Se analizó cómo el nivel de abstracción de las reglas afecta su fidelidad, buscando reglas precisas y evaluando el impacto del nivel de abstracción. En conclusión, este estudio tiene por objetivo mejorar significativamente la fidelidad de las reglas generadas por el algoritmo, permitiendo a los usuarios entender mejor el proceso de clasificación y además destacar la importancia de considerar el nivel de abstracción al extraer reglas interpretables y fieles.Neural networks have the ability to achieve high levels of accuracy in classification tasks, but their lack of explainability is a clear drawback and leads to call them ”black boxes”. In this paper, we present a modification of the RxREN algorithm that focuses on the explainability of neural networks by generating accurate and easily interpretable rules. The objective of this modification is to understand the neural network decision process, and for this purpose, the relationship between the level of abstraction and its fidelity is analyzed. An algorithm with three configurations was implemented in two different problems (Iris, WBC). It was analyzed how the abstraction level of the rules affects their fidelity, searching for accurate rules and evaluating the impact of the abstraction level. In conclusion, this study aims to significantly improve the fidelity of the rules generated by the algorithm, allowing users to better understand the classification process and also it is intended to highlight the importance of considering the level of abstraction when extracting interpretable and faithful rules.Sociedad Argentina de Informática e Investigación Operativa2023-09info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdf43-58http://sedici.unlp.edu.ar/handle/10915/166459spainfo:eu-repo/semantics/altIdentifier/url/https://publicaciones.sadio.org.ar/index.php/JAIIO/article/view/551info:eu-repo/semantics/altIdentifier/issn/2451-7496info:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-03T11:15:49Zoai:sedici.unlp.edu.ar:10915/166459Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-03 11:15:49.886SEDICI (UNLP) - Universidad Nacional de La Platafalse |
dc.title.none.fl_str_mv |
Variante enfocada en fidelidad de un algoritmo de extracción de reglas en redes neuronales artificiales Fidelity Focused Variant of a rule extraction algorithm in artificial neural networks |
title |
Variante enfocada en fidelidad de un algoritmo de extracción de reglas en redes neuronales artificiales |
spellingShingle |
Variante enfocada en fidelidad de un algoritmo de extracción de reglas en redes neuronales artificiales Jacinto, MIlagros Aylén Ciencias Informáticas Fidelidad Redes Neuronales Artificiales Inteligencia Artificial Explicable XIA |
title_short |
Variante enfocada en fidelidad de un algoritmo de extracción de reglas en redes neuronales artificiales |
title_full |
Variante enfocada en fidelidad de un algoritmo de extracción de reglas en redes neuronales artificiales |
title_fullStr |
Variante enfocada en fidelidad de un algoritmo de extracción de reglas en redes neuronales artificiales |
title_full_unstemmed |
Variante enfocada en fidelidad de un algoritmo de extracción de reglas en redes neuronales artificiales |
title_sort |
Variante enfocada en fidelidad de un algoritmo de extracción de reglas en redes neuronales artificiales |
dc.creator.none.fl_str_mv |
Jacinto, MIlagros Aylén Moschettoni, Martín Pons, Claudia Fabiana Pérez, Gabriela Alejandra |
author |
Jacinto, MIlagros Aylén |
author_facet |
Jacinto, MIlagros Aylén Moschettoni, Martín Pons, Claudia Fabiana Pérez, Gabriela Alejandra |
author_role |
author |
author2 |
Moschettoni, Martín Pons, Claudia Fabiana Pérez, Gabriela Alejandra |
author2_role |
author author author |
dc.subject.none.fl_str_mv |
Ciencias Informáticas Fidelidad Redes Neuronales Artificiales Inteligencia Artificial Explicable XIA |
topic |
Ciencias Informáticas Fidelidad Redes Neuronales Artificiales Inteligencia Artificial Explicable XIA |
dc.description.none.fl_txt_mv |
Las redes neuronales tienen la capacidad de alcanzar altos niveles de precisión en tareas de clasificación, pero su falta de explicabilidad es un claro inconveniente y lleva a denominarlas “cajas negras”. En este artículo, se presenta una modificación del algoritmo RxREN que se centra en la explicabilidad de las redes neuronales generando reglas precisas y fácilmente interpretables. El objetivo de esta modificación es comprender el proceso de decisión de la red neuronal, y para lograrlo, se analiza la relación entre el nivel de abstracción y su fidelidad. Se implementó un algoritmo con tres configuraciones en dos problemas distintos (Iris, WBC) Se analizó cómo el nivel de abstracción de las reglas afecta su fidelidad, buscando reglas precisas y evaluando el impacto del nivel de abstracción. En conclusión, este estudio tiene por objetivo mejorar significativamente la fidelidad de las reglas generadas por el algoritmo, permitiendo a los usuarios entender mejor el proceso de clasificación y además destacar la importancia de considerar el nivel de abstracción al extraer reglas interpretables y fieles. Neural networks have the ability to achieve high levels of accuracy in classification tasks, but their lack of explainability is a clear drawback and leads to call them ”black boxes”. In this paper, we present a modification of the RxREN algorithm that focuses on the explainability of neural networks by generating accurate and easily interpretable rules. The objective of this modification is to understand the neural network decision process, and for this purpose, the relationship between the level of abstraction and its fidelity is analyzed. An algorithm with three configurations was implemented in two different problems (Iris, WBC). It was analyzed how the abstraction level of the rules affects their fidelity, searching for accurate rules and evaluating the impact of the abstraction level. In conclusion, this study aims to significantly improve the fidelity of the rules generated by the algorithm, allowing users to better understand the classification process and also it is intended to highlight the importance of considering the level of abstraction when extracting interpretable and faithful rules. Sociedad Argentina de Informática e Investigación Operativa |
description |
Las redes neuronales tienen la capacidad de alcanzar altos niveles de precisión en tareas de clasificación, pero su falta de explicabilidad es un claro inconveniente y lleva a denominarlas “cajas negras”. En este artículo, se presenta una modificación del algoritmo RxREN que se centra en la explicabilidad de las redes neuronales generando reglas precisas y fácilmente interpretables. El objetivo de esta modificación es comprender el proceso de decisión de la red neuronal, y para lograrlo, se analiza la relación entre el nivel de abstracción y su fidelidad. Se implementó un algoritmo con tres configuraciones en dos problemas distintos (Iris, WBC) Se analizó cómo el nivel de abstracción de las reglas afecta su fidelidad, buscando reglas precisas y evaluando el impacto del nivel de abstracción. En conclusión, este estudio tiene por objetivo mejorar significativamente la fidelidad de las reglas generadas por el algoritmo, permitiendo a los usuarios entender mejor el proceso de clasificación y además destacar la importancia de considerar el nivel de abstracción al extraer reglas interpretables y fieles. |
publishDate |
2023 |
dc.date.none.fl_str_mv |
2023-09 |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/conferenceObject info:eu-repo/semantics/publishedVersion Objeto de conferencia http://purl.org/coar/resource_type/c_5794 info:ar-repo/semantics/documentoDeConferencia |
format |
conferenceObject |
status_str |
publishedVersion |
dc.identifier.none.fl_str_mv |
http://sedici.unlp.edu.ar/handle/10915/166459 |
url |
http://sedici.unlp.edu.ar/handle/10915/166459 |
dc.language.none.fl_str_mv |
spa |
language |
spa |
dc.relation.none.fl_str_mv |
info:eu-repo/semantics/altIdentifier/url/https://publicaciones.sadio.org.ar/index.php/JAIIO/article/view/551 info:eu-repo/semantics/altIdentifier/issn/2451-7496 |
dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
dc.format.none.fl_str_mv |
application/pdf 43-58 |
dc.source.none.fl_str_mv |
reponame:SEDICI (UNLP) instname:Universidad Nacional de La Plata instacron:UNLP |
reponame_str |
SEDICI (UNLP) |
collection |
SEDICI (UNLP) |
instname_str |
Universidad Nacional de La Plata |
instacron_str |
UNLP |
institution |
UNLP |
repository.name.fl_str_mv |
SEDICI (UNLP) - Universidad Nacional de La Plata |
repository.mail.fl_str_mv |
alira@sedici.unlp.edu.ar |
_version_ |
1842260662210789376 |
score |
13.13397 |