Inteligencia artificial explicable: análisis de metodologías y aplicaciones

Autores
Pezzini, María Cecilia
Año de publicación
2024
Idioma
español castellano
Tipo de recurso
tesis de maestría
Estado
versión aceptada
Colaborador/a o director/a de tesis
Pons, Claudia Fabiana
Descripción
La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA.
Especialista en Ingeniería de Software
Universidad Nacional de La Plata
Facultad de Informática
Materia
Informática
Inteligencia artificial
explicabilidad
machine learning
aprendizaje automático
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/4.0/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/174328

id SEDICI_febd60e9e73c8f2c1987336aff837511
oai_identifier_str oai:sedici.unlp.edu.ar:10915/174328
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Inteligencia artificial explicable: análisis de metodologías y aplicacionesPezzini, María CeciliaInformáticaInteligencia artificialexplicabilidadmachine learningaprendizaje automáticoLa falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA.Especialista en Ingeniería de SoftwareUniversidad Nacional de La PlataFacultad de InformáticaPons, Claudia Fabiana2024-09-06info:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionTrabajo de especializacionhttp://purl.org/coar/resource_type/c_bdccinfo:ar-repo/semantics/tesisDeMaestriaapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/174328spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-03T11:18:44Zoai:sedici.unlp.edu.ar:10915/174328Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-03 11:18:44.906SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Inteligencia artificial explicable: análisis de metodologías y aplicaciones
title Inteligencia artificial explicable: análisis de metodologías y aplicaciones
spellingShingle Inteligencia artificial explicable: análisis de metodologías y aplicaciones
Pezzini, María Cecilia
Informática
Inteligencia artificial
explicabilidad
machine learning
aprendizaje automático
title_short Inteligencia artificial explicable: análisis de metodologías y aplicaciones
title_full Inteligencia artificial explicable: análisis de metodologías y aplicaciones
title_fullStr Inteligencia artificial explicable: análisis de metodologías y aplicaciones
title_full_unstemmed Inteligencia artificial explicable: análisis de metodologías y aplicaciones
title_sort Inteligencia artificial explicable: análisis de metodologías y aplicaciones
dc.creator.none.fl_str_mv Pezzini, María Cecilia
author Pezzini, María Cecilia
author_facet Pezzini, María Cecilia
author_role author
dc.contributor.none.fl_str_mv Pons, Claudia Fabiana
dc.subject.none.fl_str_mv Informática
Inteligencia artificial
explicabilidad
machine learning
aprendizaje automático
topic Informática
Inteligencia artificial
explicabilidad
machine learning
aprendizaje automático
dc.description.none.fl_txt_mv La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA.
Especialista en Ingeniería de Software
Universidad Nacional de La Plata
Facultad de Informática
description La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA.
publishDate 2024
dc.date.none.fl_str_mv 2024-09-06
dc.type.none.fl_str_mv info:eu-repo/semantics/masterThesis
info:eu-repo/semantics/acceptedVersion
Trabajo de especializacion
http://purl.org/coar/resource_type/c_bdcc
info:ar-repo/semantics/tesisDeMaestria
format masterThesis
status_str acceptedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/174328
url http://sedici.unlp.edu.ar/handle/10915/174328
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1842260692909948928
score 13.13397