Explicaciones dialécticas

Autores
Rotsztein, Ricardo Ariel; García, Alejandro Javier; Simari, Guillermo Ricardo
Año de publicación
2007
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
Este artículo reporta el estudio realizado hasta el momento en la línea de investigación de explicaciones dialécticas [4] y propone direcciones para el trabajo a futuro. Dentro de varias áreas de la Inteligencia Artificial se ha puesto atención al rol de las explicaciones, en particular en sistemas expertos [7, 10, 6]. El objetivo de brindar explicaciones en sistemas expertos es brindar mayor confianza al usuario con respecto a las respuestas dadas por el sistema. No obstante, pocos han analizado el uso de explicaciones dentro de sistemas argumentativos [8]. En general, se habla de ‘argumento’ como una explicación para un literal dado; es decir, el punto siendo explicado es puesto en discusión, y a partir de ahí puede ser aceptado o no. Por ejemplo, el argumento “hoy está lloviendo, por lo cual me voy a quedar a dormir” puede ser una explicación para el literal “hoy no voy a trabajar”. Sin embargo, la razón provista para no ir a trabajar puede ser puesta en tela de juicio. Por otro lado, en revisión de creencias también se ha estudiado el rol de las explicaciones [3]. Estas son utilizadas para resolver inconsistencias entre las creencias y las nuevas percepciones; aquel literal soportado por la explicación más fuerte es el que finalmente prevalecerá. Si bien reconocemos que un argumento en sí puede ser tomado como una explicación para un literal, en esta línea de trabajo estamos enfocados en otro tipo de explicaciones: aquellas que justifican las garantías brindadas por un sistema argumentativo. Nuestro trabajo puede analizarse desde un punto de vista abstracto, y los resultados se implementarán en un formalismo en particular: Defeasible Logic Programming (DeLP) [5]. Este formalismo utiliza programas lógicos rebatibles (de aquí en adelante, DeLP-programs) para representar el conocimiento, y argumentación rebatible para el razonamiento. El procedimiento de prueba utilizado es dialéctico, por lo cual estudiaremos un concepto al que denominaremos explicaciones dialécticas (de aquí en adelante, ±-Explanations). El procedimiento de prueba, ante una consulta (query), responde si puede o no creerse en dicho literal, es decir, si este puede considerarse garantizado. El mecanismo para lograrlo es construir árboles de dialéctica enraizados en un argumento para el literal consultado o para su complemento. Para más detalles referirse a [5]. El conjunto completo de árboles de dialéctica relacionados con la consulta realizada será considerado la ±-Explanation de la respuesta para esa consulta. A lo largo del artículo mostraremos cómo las ±-Explanations son una herramienta poderosa para comprender y analizar las interacciones entre argumentos dentro de un árbol de dialéctica, y para asistir la codificación y el depurado de bases de conocimiento. Actualmente, hay un prototipo implementado en nuestro laboratorio que permite visualizar el conjunto de árboles de dialéctica que justifican la respuesta dada para una consulta. Los ejemplos mostrados en este artículo están generados a partir de este prototipo. En esta línea de investigación se propone el estudio de un área poco explorada: la de explicaciones en sistemas argumentativos. Las explicaciones que proveemos apuntan a revelar el contexto completo de una consulta. Los ejemplos dados en este artículo enfatizan este punto. En la sección que sigue describimos y ejemplificamos las explicaciones dialécticas tanto para consultas fijas como con variables, en la sección 3 discutimos y hacemos una comparación con un acercamiento que se relaciona al nuestro, y en la sección 4 delineamos el trabajo futuro sobre esta línea.
Eje: Agentes y Sistemas Inteligentes
Red de Universidades con Carreras en Informática (RedUNCI)
Materia
Ciencias Informáticas
Intelligent agents
Explicaciones
Dialéctica
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/20305

id SEDICI_455fb4dc9394c674f4cacdc18d6e97a2
oai_identifier_str oai:sedici.unlp.edu.ar:10915/20305
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Explicaciones dialécticasRotsztein, Ricardo ArielGarcía, Alejandro JavierSimari, Guillermo RicardoCiencias InformáticasIntelligent agentsExplicacionesDialécticaEste artículo reporta el estudio realizado hasta el momento en la línea de investigación de explicaciones dialécticas [4] y propone direcciones para el trabajo a futuro. Dentro de varias áreas de la Inteligencia Artificial se ha puesto atención al rol de las explicaciones, en particular en sistemas expertos [7, 10, 6]. El objetivo de brindar explicaciones en sistemas expertos es brindar mayor confianza al usuario con respecto a las respuestas dadas por el sistema. No obstante, pocos han analizado el uso de explicaciones dentro de sistemas argumentativos [8]. En general, se habla de ‘argumento’ como una explicación para un literal dado; es decir, el punto siendo explicado es puesto en discusión, y a partir de ahí puede ser aceptado o no. Por ejemplo, el argumento “hoy está lloviendo, por lo cual me voy a quedar a dormir” puede ser una explicación para el literal “hoy no voy a trabajar”. Sin embargo, la razón provista para no ir a trabajar puede ser puesta en tela de juicio. Por otro lado, en revisión de creencias también se ha estudiado el rol de las explicaciones [3]. Estas son utilizadas para resolver inconsistencias entre las creencias y las nuevas percepciones; aquel literal soportado por la explicación más fuerte es el que finalmente prevalecerá. Si bien reconocemos que un argumento en sí puede ser tomado como una explicación para un literal, en esta línea de trabajo estamos enfocados en otro tipo de explicaciones: aquellas que justifican las garantías brindadas por un sistema argumentativo. Nuestro trabajo puede analizarse desde un punto de vista abstracto, y los resultados se implementarán en un formalismo en particular: Defeasible Logic Programming (DeLP) [5]. Este formalismo utiliza programas lógicos rebatibles (de aquí en adelante, DeLP-programs) para representar el conocimiento, y argumentación rebatible para el razonamiento. El procedimiento de prueba utilizado es dialéctico, por lo cual estudiaremos un concepto al que denominaremos explicaciones dialécticas (de aquí en adelante, ±-Explanations). El procedimiento de prueba, ante una consulta (query), responde si puede o no creerse en dicho literal, es decir, si este puede considerarse garantizado. El mecanismo para lograrlo es construir árboles de dialéctica enraizados en un argumento para el literal consultado o para su complemento. Para más detalles referirse a [5]. El conjunto completo de árboles de dialéctica relacionados con la consulta realizada será considerado la ±-Explanation de la respuesta para esa consulta. A lo largo del artículo mostraremos cómo las ±-Explanations son una herramienta poderosa para comprender y analizar las interacciones entre argumentos dentro de un árbol de dialéctica, y para asistir la codificación y el depurado de bases de conocimiento. Actualmente, hay un prototipo implementado en nuestro laboratorio que permite visualizar el conjunto de árboles de dialéctica que justifican la respuesta dada para una consulta. Los ejemplos mostrados en este artículo están generados a partir de este prototipo. En esta línea de investigación se propone el estudio de un área poco explorada: la de explicaciones en sistemas argumentativos. Las explicaciones que proveemos apuntan a revelar el contexto completo de una consulta. Los ejemplos dados en este artículo enfatizan este punto. En la sección que sigue describimos y ejemplificamos las explicaciones dialécticas tanto para consultas fijas como con variables, en la sección 3 discutimos y hacemos una comparación con un acercamiento que se relaciona al nuestro, y en la sección 4 delineamos el trabajo futuro sobre esta línea.Eje: Agentes y Sistemas InteligentesRed de Universidades con Carreras en Informática (RedUNCI)2007-05info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdf77-81http://sedici.unlp.edu.ar/handle/10915/20305spainfo:eu-repo/semantics/altIdentifier/isbn/978-950-763-075-0info:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/2.5/ar/Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-29T10:54:11Zoai:sedici.unlp.edu.ar:10915/20305Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-29 10:54:11.311SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Explicaciones dialécticas
title Explicaciones dialécticas
spellingShingle Explicaciones dialécticas
Rotsztein, Ricardo Ariel
Ciencias Informáticas
Intelligent agents
Explicaciones
Dialéctica
title_short Explicaciones dialécticas
title_full Explicaciones dialécticas
title_fullStr Explicaciones dialécticas
title_full_unstemmed Explicaciones dialécticas
title_sort Explicaciones dialécticas
dc.creator.none.fl_str_mv Rotsztein, Ricardo Ariel
García, Alejandro Javier
Simari, Guillermo Ricardo
author Rotsztein, Ricardo Ariel
author_facet Rotsztein, Ricardo Ariel
García, Alejandro Javier
Simari, Guillermo Ricardo
author_role author
author2 García, Alejandro Javier
Simari, Guillermo Ricardo
author2_role author
author
dc.subject.none.fl_str_mv Ciencias Informáticas
Intelligent agents
Explicaciones
Dialéctica
topic Ciencias Informáticas
Intelligent agents
Explicaciones
Dialéctica
dc.description.none.fl_txt_mv Este artículo reporta el estudio realizado hasta el momento en la línea de investigación de explicaciones dialécticas [4] y propone direcciones para el trabajo a futuro. Dentro de varias áreas de la Inteligencia Artificial se ha puesto atención al rol de las explicaciones, en particular en sistemas expertos [7, 10, 6]. El objetivo de brindar explicaciones en sistemas expertos es brindar mayor confianza al usuario con respecto a las respuestas dadas por el sistema. No obstante, pocos han analizado el uso de explicaciones dentro de sistemas argumentativos [8]. En general, se habla de ‘argumento’ como una explicación para un literal dado; es decir, el punto siendo explicado es puesto en discusión, y a partir de ahí puede ser aceptado o no. Por ejemplo, el argumento “hoy está lloviendo, por lo cual me voy a quedar a dormir” puede ser una explicación para el literal “hoy no voy a trabajar”. Sin embargo, la razón provista para no ir a trabajar puede ser puesta en tela de juicio. Por otro lado, en revisión de creencias también se ha estudiado el rol de las explicaciones [3]. Estas son utilizadas para resolver inconsistencias entre las creencias y las nuevas percepciones; aquel literal soportado por la explicación más fuerte es el que finalmente prevalecerá. Si bien reconocemos que un argumento en sí puede ser tomado como una explicación para un literal, en esta línea de trabajo estamos enfocados en otro tipo de explicaciones: aquellas que justifican las garantías brindadas por un sistema argumentativo. Nuestro trabajo puede analizarse desde un punto de vista abstracto, y los resultados se implementarán en un formalismo en particular: Defeasible Logic Programming (DeLP) [5]. Este formalismo utiliza programas lógicos rebatibles (de aquí en adelante, DeLP-programs) para representar el conocimiento, y argumentación rebatible para el razonamiento. El procedimiento de prueba utilizado es dialéctico, por lo cual estudiaremos un concepto al que denominaremos explicaciones dialécticas (de aquí en adelante, ±-Explanations). El procedimiento de prueba, ante una consulta (query), responde si puede o no creerse en dicho literal, es decir, si este puede considerarse garantizado. El mecanismo para lograrlo es construir árboles de dialéctica enraizados en un argumento para el literal consultado o para su complemento. Para más detalles referirse a [5]. El conjunto completo de árboles de dialéctica relacionados con la consulta realizada será considerado la ±-Explanation de la respuesta para esa consulta. A lo largo del artículo mostraremos cómo las ±-Explanations son una herramienta poderosa para comprender y analizar las interacciones entre argumentos dentro de un árbol de dialéctica, y para asistir la codificación y el depurado de bases de conocimiento. Actualmente, hay un prototipo implementado en nuestro laboratorio que permite visualizar el conjunto de árboles de dialéctica que justifican la respuesta dada para una consulta. Los ejemplos mostrados en este artículo están generados a partir de este prototipo. En esta línea de investigación se propone el estudio de un área poco explorada: la de explicaciones en sistemas argumentativos. Las explicaciones que proveemos apuntan a revelar el contexto completo de una consulta. Los ejemplos dados en este artículo enfatizan este punto. En la sección que sigue describimos y ejemplificamos las explicaciones dialécticas tanto para consultas fijas como con variables, en la sección 3 discutimos y hacemos una comparación con un acercamiento que se relaciona al nuestro, y en la sección 4 delineamos el trabajo futuro sobre esta línea.
Eje: Agentes y Sistemas Inteligentes
Red de Universidades con Carreras en Informática (RedUNCI)
description Este artículo reporta el estudio realizado hasta el momento en la línea de investigación de explicaciones dialécticas [4] y propone direcciones para el trabajo a futuro. Dentro de varias áreas de la Inteligencia Artificial se ha puesto atención al rol de las explicaciones, en particular en sistemas expertos [7, 10, 6]. El objetivo de brindar explicaciones en sistemas expertos es brindar mayor confianza al usuario con respecto a las respuestas dadas por el sistema. No obstante, pocos han analizado el uso de explicaciones dentro de sistemas argumentativos [8]. En general, se habla de ‘argumento’ como una explicación para un literal dado; es decir, el punto siendo explicado es puesto en discusión, y a partir de ahí puede ser aceptado o no. Por ejemplo, el argumento “hoy está lloviendo, por lo cual me voy a quedar a dormir” puede ser una explicación para el literal “hoy no voy a trabajar”. Sin embargo, la razón provista para no ir a trabajar puede ser puesta en tela de juicio. Por otro lado, en revisión de creencias también se ha estudiado el rol de las explicaciones [3]. Estas son utilizadas para resolver inconsistencias entre las creencias y las nuevas percepciones; aquel literal soportado por la explicación más fuerte es el que finalmente prevalecerá. Si bien reconocemos que un argumento en sí puede ser tomado como una explicación para un literal, en esta línea de trabajo estamos enfocados en otro tipo de explicaciones: aquellas que justifican las garantías brindadas por un sistema argumentativo. Nuestro trabajo puede analizarse desde un punto de vista abstracto, y los resultados se implementarán en un formalismo en particular: Defeasible Logic Programming (DeLP) [5]. Este formalismo utiliza programas lógicos rebatibles (de aquí en adelante, DeLP-programs) para representar el conocimiento, y argumentación rebatible para el razonamiento. El procedimiento de prueba utilizado es dialéctico, por lo cual estudiaremos un concepto al que denominaremos explicaciones dialécticas (de aquí en adelante, ±-Explanations). El procedimiento de prueba, ante una consulta (query), responde si puede o no creerse en dicho literal, es decir, si este puede considerarse garantizado. El mecanismo para lograrlo es construir árboles de dialéctica enraizados en un argumento para el literal consultado o para su complemento. Para más detalles referirse a [5]. El conjunto completo de árboles de dialéctica relacionados con la consulta realizada será considerado la ±-Explanation de la respuesta para esa consulta. A lo largo del artículo mostraremos cómo las ±-Explanations son una herramienta poderosa para comprender y analizar las interacciones entre argumentos dentro de un árbol de dialéctica, y para asistir la codificación y el depurado de bases de conocimiento. Actualmente, hay un prototipo implementado en nuestro laboratorio que permite visualizar el conjunto de árboles de dialéctica que justifican la respuesta dada para una consulta. Los ejemplos mostrados en este artículo están generados a partir de este prototipo. En esta línea de investigación se propone el estudio de un área poco explorada: la de explicaciones en sistemas argumentativos. Las explicaciones que proveemos apuntan a revelar el contexto completo de una consulta. Los ejemplos dados en este artículo enfatizan este punto. En la sección que sigue describimos y ejemplificamos las explicaciones dialécticas tanto para consultas fijas como con variables, en la sección 3 discutimos y hacemos una comparación con un acercamiento que se relaciona al nuestro, y en la sección 4 delineamos el trabajo futuro sobre esta línea.
publishDate 2007
dc.date.none.fl_str_mv 2007-05
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/20305
url http://sedici.unlp.edu.ar/handle/10915/20305
dc.language.none.fl_str_mv spa
language spa
dc.relation.none.fl_str_mv info:eu-repo/semantics/altIdentifier/isbn/978-950-763-075-0
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
dc.format.none.fl_str_mv application/pdf
77-81
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1844615798692249600
score 13.070432