Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos

Autores
Côrtes, Deise; Alvares, Luis Otávio Campos
Año de publicación
2005
Idioma
portugués
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuroevolução é um dos métodos de aprendizado por reforço mais proeminentes. Neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Foi desenvolvida uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Os experimentos realizados mostraram que os agentes treinados com o modelo proposto possuem capacidade de se adaptar a alterações no ambiente em tempo de execução. O modelo foi aplicado no domínio das tarefas de perseguição-evasão.
Eje: VI Workshop de Agentes y Sistemas Inteligentes (WASI)
Red de Universidades con Carreras en Informática (RedUNCI)
Materia
Ciencias Informáticas
Multiagent systems
Algorithms
Neural nets
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/22934

id SEDICI_13be2ae0550b061e4808046a8bb4463c
oai_identifier_str oai:sedici.unlp.edu.ar:10915/22934
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicosCôrtes, DeiseAlvares, Luis Otávio CamposCiencias InformáticasMultiagent systemsAlgorithmsNeural netsEm ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuroevolução é um dos métodos de aprendizado por reforço mais proeminentes. Neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Foi desenvolvida uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Os experimentos realizados mostraram que os agentes treinados com o modelo proposto possuem capacidade de se adaptar a alterações no ambiente em tempo de execução. O modelo foi aplicado no domínio das tarefas de perseguição-evasão.Eje: VI Workshop de Agentes y Sistemas Inteligentes (WASI)Red de Universidades con Carreras en Informática (RedUNCI)2005-10info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/22934info:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/2.5/ar/Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)porreponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-03T10:28:03Zoai:sedici.unlp.edu.ar:10915/22934Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-03 10:28:03.504SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
title Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
spellingShingle Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
Côrtes, Deise
Ciencias Informáticas
Multiagent systems
Algorithms
Neural nets
title_short Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
title_full Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
title_fullStr Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
title_full_unstemmed Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
title_sort Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
dc.creator.none.fl_str_mv Côrtes, Deise
Alvares, Luis Otávio Campos
author Côrtes, Deise
author_facet Côrtes, Deise
Alvares, Luis Otávio Campos
author_role author
author2 Alvares, Luis Otávio Campos
author2_role author
dc.subject.none.fl_str_mv Ciencias Informáticas
Multiagent systems
Algorithms
Neural nets
topic Ciencias Informáticas
Multiagent systems
Algorithms
Neural nets
dc.description.none.fl_txt_mv Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuroevolução é um dos métodos de aprendizado por reforço mais proeminentes. Neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Foi desenvolvida uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Os experimentos realizados mostraram que os agentes treinados com o modelo proposto possuem capacidade de se adaptar a alterações no ambiente em tempo de execução. O modelo foi aplicado no domínio das tarefas de perseguição-evasão.
Eje: VI Workshop de Agentes y Sistemas Inteligentes (WASI)
Red de Universidades con Carreras en Informática (RedUNCI)
description Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuroevolução é um dos métodos de aprendizado por reforço mais proeminentes. Neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Foi desenvolvida uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Os experimentos realizados mostraram que os agentes treinados com o modelo proposto possuem capacidade de se adaptar a alterações no ambiente em tempo de execução. O modelo foi aplicado no domínio das tarefas de perseguição-evasão.
publishDate 2005
dc.date.none.fl_str_mv 2005-10
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/22934
url http://sedici.unlp.edu.ar/handle/10915/22934
dc.language.none.fl_str_mv por
language por
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1842260118903717888
score 13.13397