Inteligencia artificial explicable: análisis de metodologías y aplicaciones
- Autores
- Pezzini, María Cecilia
- Año de publicación
- 2024
- Idioma
- español castellano
- Tipo de recurso
- tesis de maestría
- Estado
- versión aceptada
- Colaborador/a o director/a de tesis
- Pons, Claudia Fabiana
- Descripción
- La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA.
Especialista en Ingeniería de Software
Universidad Nacional de La Plata
Facultad de Informática - Materia
-
Informática
Inteligencia artificial
explicabilidad
machine learning
aprendizaje automático - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- http://creativecommons.org/licenses/by-nc-sa/4.0/
- Repositorio
.jpg)
- Institución
- Universidad Nacional de La Plata
- OAI Identificador
- oai:sedici.unlp.edu.ar:10915/174328
Ver los metadatos del registro completo
| id |
SEDICI_febd60e9e73c8f2c1987336aff837511 |
|---|---|
| oai_identifier_str |
oai:sedici.unlp.edu.ar:10915/174328 |
| network_acronym_str |
SEDICI |
| repository_id_str |
1329 |
| network_name_str |
SEDICI (UNLP) |
| spelling |
Inteligencia artificial explicable: análisis de metodologías y aplicacionesPezzini, María CeciliaInformáticaInteligencia artificialexplicabilidadmachine learningaprendizaje automáticoLa falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA.Especialista en Ingeniería de SoftwareUniversidad Nacional de La PlataFacultad de InformáticaPons, Claudia Fabiana2024-09-06info:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionTrabajo de especializacionhttp://purl.org/coar/resource_type/c_bdccinfo:ar-repo/semantics/tesisDeMaestriaapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/174328spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-10-15T11:38:36Zoai:sedici.unlp.edu.ar:10915/174328Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-10-15 11:38:37.102SEDICI (UNLP) - Universidad Nacional de La Platafalse |
| dc.title.none.fl_str_mv |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| title |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| spellingShingle |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones Pezzini, María Cecilia Informática Inteligencia artificial explicabilidad machine learning aprendizaje automático |
| title_short |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| title_full |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| title_fullStr |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| title_full_unstemmed |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| title_sort |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| dc.creator.none.fl_str_mv |
Pezzini, María Cecilia |
| author |
Pezzini, María Cecilia |
| author_facet |
Pezzini, María Cecilia |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
Pons, Claudia Fabiana |
| dc.subject.none.fl_str_mv |
Informática Inteligencia artificial explicabilidad machine learning aprendizaje automático |
| topic |
Informática Inteligencia artificial explicabilidad machine learning aprendizaje automático |
| dc.description.none.fl_txt_mv |
La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA. Especialista en Ingeniería de Software Universidad Nacional de La Plata Facultad de Informática |
| description |
La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA. |
| publishDate |
2024 |
| dc.date.none.fl_str_mv |
2024-09-06 |
| dc.type.none.fl_str_mv |
info:eu-repo/semantics/masterThesis info:eu-repo/semantics/acceptedVersion Trabajo de especializacion http://purl.org/coar/resource_type/c_bdcc info:ar-repo/semantics/tesisDeMaestria |
| format |
masterThesis |
| status_str |
acceptedVersion |
| dc.identifier.none.fl_str_mv |
http://sedici.unlp.edu.ar/handle/10915/174328 |
| url |
http://sedici.unlp.edu.ar/handle/10915/174328 |
| dc.language.none.fl_str_mv |
spa |
| language |
spa |
| dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.source.none.fl_str_mv |
reponame:SEDICI (UNLP) instname:Universidad Nacional de La Plata instacron:UNLP |
| reponame_str |
SEDICI (UNLP) |
| collection |
SEDICI (UNLP) |
| instname_str |
Universidad Nacional de La Plata |
| instacron_str |
UNLP |
| institution |
UNLP |
| repository.name.fl_str_mv |
SEDICI (UNLP) - Universidad Nacional de La Plata |
| repository.mail.fl_str_mv |
alira@sedici.unlp.edu.ar |
| _version_ |
1846064403734069248 |
| score |
13.22299 |