Una implementación paralela del algoritmo de Q-Learning basada en un esquema de comunicación con caché

Autores
Printista, Alicia Marcela; Errecalde, Marcelo Luis; Montoya, Cecilia Inés
Año de publicación
2000
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
Q-Learning es un método de Aprendizaje por Refuerzo que permite resolver problemas de decisión secuencial en los cuales la utilidad de una acción depende de una secuencia de decisiones y donde además existe incertidumbre en cuanto a las dinámicas del ambiente en que está situado el agente. Este marco general de trabajo ha permitido aplicar Q-Learning y otros métodos de Aprendizaje por Refuerzo a una amplia gama de problemas del mundo real de considerable complejidad, como por ejemplo navegación de robots, manufacturación industrial, juegos, control de ascensores, etc. A pesar de las características interesantes de Q-Learning, uno de sus principales problemas es que es un método lento, ya que el agente requiere un tiempo considerable de entrenamiento para aprender una política aceptable. A los fines de solucionar, o al menos atenuar este problema, este trabajo propone un modelo de implementación paralela de Q-Learning manteniendo una representación tabular, y utilizando un esquema de comunicación basada en caché. Este modelo es aplicado en un problema particular, reportándose los resultados obtenidos con distintas configuraciones de procesadores y analizándose las ventajas y limitaciones actuales del enfoque
I Workshop de Procesamiento Distribuido y Paralelo (WPDP)
Red de Universidades con Carreras en Informática (RedUNCI)
Materia
Ciencias Informáticas
Parallel programming
comunicación basada en caché
aprendizaje por refuerzo
programación dinámica asincrónica
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/23363

id SEDICI_e8f6a383956ff8212c69c0780a44492f
oai_identifier_str oai:sedici.unlp.edu.ar:10915/23363
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Una implementación paralela del algoritmo de Q-Learning basada en un esquema de comunicación con cachéPrintista, Alicia MarcelaErrecalde, Marcelo LuisMontoya, Cecilia InésCiencias InformáticasParallel programmingcomunicación basada en cachéaprendizaje por refuerzoprogramación dinámica asincrónicaQ-Learning es un método de Aprendizaje por Refuerzo que permite resolver problemas de decisión secuencial en los cuales la utilidad de una acción depende de una secuencia de decisiones y donde además existe incertidumbre en cuanto a las dinámicas del ambiente en que está situado el agente. Este marco general de trabajo ha permitido aplicar Q-Learning y otros métodos de Aprendizaje por Refuerzo a una amplia gama de problemas del mundo real de considerable complejidad, como por ejemplo navegación de robots, manufacturación industrial, juegos, control de ascensores, etc. A pesar de las características interesantes de Q-Learning, uno de sus principales problemas es que es un método lento, ya que el agente requiere un tiempo considerable de entrenamiento para aprender una política aceptable. A los fines de solucionar, o al menos atenuar este problema, este trabajo propone un modelo de implementación paralela de Q-Learning manteniendo una representación tabular, y utilizando un esquema de comunicación basada en caché. Este modelo es aplicado en un problema particular, reportándose los resultados obtenidos con distintas configuraciones de procesadores y analizándose las ventajas y limitaciones actuales del enfoqueI Workshop de Procesamiento Distribuido y Paralelo (WPDP)Red de Universidades con Carreras en Informática (RedUNCI)2000-10info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/23363spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/2.5/ar/Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-29T10:55:25Zoai:sedici.unlp.edu.ar:10915/23363Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-29 10:55:26.007SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Una implementación paralela del algoritmo de Q-Learning basada en un esquema de comunicación con caché
title Una implementación paralela del algoritmo de Q-Learning basada en un esquema de comunicación con caché
spellingShingle Una implementación paralela del algoritmo de Q-Learning basada en un esquema de comunicación con caché
Printista, Alicia Marcela
Ciencias Informáticas
Parallel programming
comunicación basada en caché
aprendizaje por refuerzo
programación dinámica asincrónica
title_short Una implementación paralela del algoritmo de Q-Learning basada en un esquema de comunicación con caché
title_full Una implementación paralela del algoritmo de Q-Learning basada en un esquema de comunicación con caché
title_fullStr Una implementación paralela del algoritmo de Q-Learning basada en un esquema de comunicación con caché
title_full_unstemmed Una implementación paralela del algoritmo de Q-Learning basada en un esquema de comunicación con caché
title_sort Una implementación paralela del algoritmo de Q-Learning basada en un esquema de comunicación con caché
dc.creator.none.fl_str_mv Printista, Alicia Marcela
Errecalde, Marcelo Luis
Montoya, Cecilia Inés
author Printista, Alicia Marcela
author_facet Printista, Alicia Marcela
Errecalde, Marcelo Luis
Montoya, Cecilia Inés
author_role author
author2 Errecalde, Marcelo Luis
Montoya, Cecilia Inés
author2_role author
author
dc.subject.none.fl_str_mv Ciencias Informáticas
Parallel programming
comunicación basada en caché
aprendizaje por refuerzo
programación dinámica asincrónica
topic Ciencias Informáticas
Parallel programming
comunicación basada en caché
aprendizaje por refuerzo
programación dinámica asincrónica
dc.description.none.fl_txt_mv Q-Learning es un método de Aprendizaje por Refuerzo que permite resolver problemas de decisión secuencial en los cuales la utilidad de una acción depende de una secuencia de decisiones y donde además existe incertidumbre en cuanto a las dinámicas del ambiente en que está situado el agente. Este marco general de trabajo ha permitido aplicar Q-Learning y otros métodos de Aprendizaje por Refuerzo a una amplia gama de problemas del mundo real de considerable complejidad, como por ejemplo navegación de robots, manufacturación industrial, juegos, control de ascensores, etc. A pesar de las características interesantes de Q-Learning, uno de sus principales problemas es que es un método lento, ya que el agente requiere un tiempo considerable de entrenamiento para aprender una política aceptable. A los fines de solucionar, o al menos atenuar este problema, este trabajo propone un modelo de implementación paralela de Q-Learning manteniendo una representación tabular, y utilizando un esquema de comunicación basada en caché. Este modelo es aplicado en un problema particular, reportándose los resultados obtenidos con distintas configuraciones de procesadores y analizándose las ventajas y limitaciones actuales del enfoque
I Workshop de Procesamiento Distribuido y Paralelo (WPDP)
Red de Universidades con Carreras en Informática (RedUNCI)
description Q-Learning es un método de Aprendizaje por Refuerzo que permite resolver problemas de decisión secuencial en los cuales la utilidad de una acción depende de una secuencia de decisiones y donde además existe incertidumbre en cuanto a las dinámicas del ambiente en que está situado el agente. Este marco general de trabajo ha permitido aplicar Q-Learning y otros métodos de Aprendizaje por Refuerzo a una amplia gama de problemas del mundo real de considerable complejidad, como por ejemplo navegación de robots, manufacturación industrial, juegos, control de ascensores, etc. A pesar de las características interesantes de Q-Learning, uno de sus principales problemas es que es un método lento, ya que el agente requiere un tiempo considerable de entrenamiento para aprender una política aceptable. A los fines de solucionar, o al menos atenuar este problema, este trabajo propone un modelo de implementación paralela de Q-Learning manteniendo una representación tabular, y utilizando un esquema de comunicación basada en caché. Este modelo es aplicado en un problema particular, reportándose los resultados obtenidos con distintas configuraciones de procesadores y analizándose las ventajas y limitaciones actuales del enfoque
publishDate 2000
dc.date.none.fl_str_mv 2000-10
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/23363
url http://sedici.unlp.edu.ar/handle/10915/23363
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1844615813221318656
score 13.070432