This paper presents a novel approach to Multi-Agent Reinforcement Learning (MARL) that combines cooperative task decomposition with the learning of reward machines (RMs) encoding the structure of the sub-tasks. The proposed method helps deal with the non-Markovian nature of the rewards in partially observable environments and improves the interpretability of the learnt policies required to complete the cooperative task. The RMs associated with each sub-task are learnt in a decentralised manner and then used to guide the behaviour of each agent. By doing so, the complexity of a cooperative multi-agent problem is reduced, allowing for more effective learning. The results suggest that our approach is a promising direction for future research in MARL, especially in complex environments with large state spaces and multiple agents.


翻译:本文提出了一种新颖的多智能体强化学习 (MARL) 方法,将合作任务分解与学习奖励机器 (RMs) 编码子任务结构相结合。所提出的方法有助于处理在部分可观察环境中的奖励的非马尔可夫性质,并提高了完成合作任务所需的学习策略的可解释性。与每个子任务相关的RMs以分散的方式学习,然后用于指导每个智能体的行为。通过这样做,减少了合作多智能体问题的复杂性,从而实现更有效的学习。结果表明,我们的方法是MARL领域未来研究的一个有希望的方向,尤其是在具有大量状态空间和多个智能体的复杂环境中。

0
下载
关闭预览

相关内容

智能体,顾名思义,就是具有智能的实体,英文名是Agent。
战术先验知识启发的多智能体双层强化学习
专知会员服务
115+阅读 · 2023年5月9日
JCIM丨DRlinker:深度强化学习优化片段连接设计
专知会员服务
7+阅读 · 2022年12月9日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
Arxiv
11+阅读 · 2018年4月25日
VIP会员
相关VIP内容
相关资讯
相关论文
相关基金
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员