Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
- Autores
- Côrtes, Deise; Alvares, Luis Otávio Campos
- Año de publicación
- 2005
- Idioma
- portugués
- Tipo de recurso
- documento de conferencia
- Estado
- versión publicada
- Descripción
- Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuroevolução é um dos métodos de aprendizado por reforço mais proeminentes. Neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Foi desenvolvida uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Os experimentos realizados mostraram que os agentes treinados com o modelo proposto possuem capacidade de se adaptar a alterações no ambiente em tempo de execução. O modelo foi aplicado no domínio das tarefas de perseguição-evasão.
Eje: VI Workshop de Agentes y Sistemas Inteligentes (WASI)
Red de Universidades con Carreras en Informática (RedUNCI) - Materia
-
Ciencias Informáticas
Multiagent systems
Algorithms
Neural nets - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
- Repositorio
- Institución
- Universidad Nacional de La Plata
- OAI Identificador
- oai:sedici.unlp.edu.ar:10915/22934
Ver los metadatos del registro completo
id |
SEDICI_13be2ae0550b061e4808046a8bb4463c |
---|---|
oai_identifier_str |
oai:sedici.unlp.edu.ar:10915/22934 |
network_acronym_str |
SEDICI |
repository_id_str |
1329 |
network_name_str |
SEDICI (UNLP) |
spelling |
Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicosCôrtes, DeiseAlvares, Luis Otávio CamposCiencias InformáticasMultiagent systemsAlgorithmsNeural netsEm ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuroevolução é um dos métodos de aprendizado por reforço mais proeminentes. Neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Foi desenvolvida uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Os experimentos realizados mostraram que os agentes treinados com o modelo proposto possuem capacidade de se adaptar a alterações no ambiente em tempo de execução. O modelo foi aplicado no domínio das tarefas de perseguição-evasão.Eje: VI Workshop de Agentes y Sistemas Inteligentes (WASI)Red de Universidades con Carreras en Informática (RedUNCI)2005-10info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/22934info:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/2.5/ar/Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)porreponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-03T10:28:03Zoai:sedici.unlp.edu.ar:10915/22934Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-03 10:28:03.504SEDICI (UNLP) - Universidad Nacional de La Platafalse |
dc.title.none.fl_str_mv |
Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
title |
Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
spellingShingle |
Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos Côrtes, Deise Ciencias Informáticas Multiagent systems Algorithms Neural nets |
title_short |
Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
title_full |
Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
title_fullStr |
Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
title_full_unstemmed |
Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
title_sort |
Um modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
dc.creator.none.fl_str_mv |
Côrtes, Deise Alvares, Luis Otávio Campos |
author |
Côrtes, Deise |
author_facet |
Côrtes, Deise Alvares, Luis Otávio Campos |
author_role |
author |
author2 |
Alvares, Luis Otávio Campos |
author2_role |
author |
dc.subject.none.fl_str_mv |
Ciencias Informáticas Multiagent systems Algorithms Neural nets |
topic |
Ciencias Informáticas Multiagent systems Algorithms Neural nets |
dc.description.none.fl_txt_mv |
Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuroevolução é um dos métodos de aprendizado por reforço mais proeminentes. Neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Foi desenvolvida uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Os experimentos realizados mostraram que os agentes treinados com o modelo proposto possuem capacidade de se adaptar a alterações no ambiente em tempo de execução. O modelo foi aplicado no domínio das tarefas de perseguição-evasão. Eje: VI Workshop de Agentes y Sistemas Inteligentes (WASI) Red de Universidades con Carreras en Informática (RedUNCI) |
description |
Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuroevolução é um dos métodos de aprendizado por reforço mais proeminentes. Neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Foi desenvolvida uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Os experimentos realizados mostraram que os agentes treinados com o modelo proposto possuem capacidade de se adaptar a alterações no ambiente em tempo de execução. O modelo foi aplicado no domínio das tarefas de perseguição-evasão. |
publishDate |
2005 |
dc.date.none.fl_str_mv |
2005-10 |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/conferenceObject info:eu-repo/semantics/publishedVersion Objeto de conferencia http://purl.org/coar/resource_type/c_5794 info:ar-repo/semantics/documentoDeConferencia |
format |
conferenceObject |
status_str |
publishedVersion |
dc.identifier.none.fl_str_mv |
http://sedici.unlp.edu.ar/handle/10915/22934 |
url |
http://sedici.unlp.edu.ar/handle/10915/22934 |
dc.language.none.fl_str_mv |
por |
language |
por |
dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess http://creativecommons.org/licenses/by-nc-sa/2.5/ar/ Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5) |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-sa/2.5/ar/ Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5) |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:SEDICI (UNLP) instname:Universidad Nacional de La Plata instacron:UNLP |
reponame_str |
SEDICI (UNLP) |
collection |
SEDICI (UNLP) |
instname_str |
Universidad Nacional de La Plata |
instacron_str |
UNLP |
institution |
UNLP |
repository.name.fl_str_mv |
SEDICI (UNLP) - Universidad Nacional de La Plata |
repository.mail.fl_str_mv |
alira@sedici.unlp.edu.ar |
_version_ |
1842260118903717888 |
score |
13.13397 |