Inteligencia artificial explicable: análisis de metodologías y aplicaciones
- Autores
- Pezzini, María Cecilia
- Año de publicación
- 2024
- Idioma
- español castellano
- Tipo de recurso
- tesis de maestría
- Estado
- versión aceptada
- Colaborador/a o director/a de tesis
- Pons, Claudia Fabiana
- Descripción
- La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA.
Especialista en Ingeniería de Software
Universidad Nacional de La Plata
Facultad de Informática - Materia
-
Informática
Inteligencia artificial
explicabilidad
machine learning
aprendizaje automático - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- http://creativecommons.org/licenses/by-nc-sa/4.0/
- Repositorio
- Institución
- Universidad Nacional de La Plata
- OAI Identificador
- oai:sedici.unlp.edu.ar:10915/174328
Ver los metadatos del registro completo
id |
SEDICI_febd60e9e73c8f2c1987336aff837511 |
---|---|
oai_identifier_str |
oai:sedici.unlp.edu.ar:10915/174328 |
network_acronym_str |
SEDICI |
repository_id_str |
1329 |
network_name_str |
SEDICI (UNLP) |
spelling |
Inteligencia artificial explicable: análisis de metodologías y aplicacionesPezzini, María CeciliaInformáticaInteligencia artificialexplicabilidadmachine learningaprendizaje automáticoLa falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA.Especialista en Ingeniería de SoftwareUniversidad Nacional de La PlataFacultad de InformáticaPons, Claudia Fabiana2024-09-06info:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionTrabajo de especializacionhttp://purl.org/coar/resource_type/c_bdccinfo:ar-repo/semantics/tesisDeMaestriaapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/174328spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-03T11:18:44Zoai:sedici.unlp.edu.ar:10915/174328Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-03 11:18:44.906SEDICI (UNLP) - Universidad Nacional de La Platafalse |
dc.title.none.fl_str_mv |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
title |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
spellingShingle |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones Pezzini, María Cecilia Informática Inteligencia artificial explicabilidad machine learning aprendizaje automático |
title_short |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
title_full |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
title_fullStr |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
title_full_unstemmed |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
title_sort |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
dc.creator.none.fl_str_mv |
Pezzini, María Cecilia |
author |
Pezzini, María Cecilia |
author_facet |
Pezzini, María Cecilia |
author_role |
author |
dc.contributor.none.fl_str_mv |
Pons, Claudia Fabiana |
dc.subject.none.fl_str_mv |
Informática Inteligencia artificial explicabilidad machine learning aprendizaje automático |
topic |
Informática Inteligencia artificial explicabilidad machine learning aprendizaje automático |
dc.description.none.fl_txt_mv |
La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA. Especialista en Ingeniería de Software Universidad Nacional de La Plata Facultad de Informática |
description |
La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA. |
publishDate |
2024 |
dc.date.none.fl_str_mv |
2024-09-06 |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/masterThesis info:eu-repo/semantics/acceptedVersion Trabajo de especializacion http://purl.org/coar/resource_type/c_bdcc info:ar-repo/semantics/tesisDeMaestria |
format |
masterThesis |
status_str |
acceptedVersion |
dc.identifier.none.fl_str_mv |
http://sedici.unlp.edu.ar/handle/10915/174328 |
url |
http://sedici.unlp.edu.ar/handle/10915/174328 |
dc.language.none.fl_str_mv |
spa |
language |
spa |
dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:SEDICI (UNLP) instname:Universidad Nacional de La Plata instacron:UNLP |
reponame_str |
SEDICI (UNLP) |
collection |
SEDICI (UNLP) |
instname_str |
Universidad Nacional de La Plata |
instacron_str |
UNLP |
institution |
UNLP |
repository.name.fl_str_mv |
SEDICI (UNLP) - Universidad Nacional de La Plata |
repository.mail.fl_str_mv |
alira@sedici.unlp.edu.ar |
_version_ |
1842260692909948928 |
score |
13.13397 |