Inspired by the recent success of transformers in natural language processing and computer vision applications, we introduce a transformer-based neural architecture for two key StarCraft II (SC2) macromanagement tasks: global state and build order prediction. Unlike recurrent neural networks which suffer from a recency bias, transformers are able to capture patterns across very long time horizons, making them well suited for full game analysis. Our model utilizes the MSC (Macromanagement in StarCraft II) dataset and improves on the top performing gated recurrent unit (GRU) architecture in predicting global state and build order as measured by mean accuracy over multiple time horizons. We present ablation studies on our proposed architecture that support our design decisions. One key advantage of transformers is their ability to generalize well, and we demonstrate that our model achieves an even better accuracy when used in a transfer learning setting in which models trained on games with one racial matchup (e.g., Terran vs. Protoss) are transferred to a different one. We believe that transformers' ability to model long games, potential for parallelization, and generalization performance make them an excellent choice for StarCraft agents.


翻译:受自然语言处理和计算机视觉应用中变压器最近的成功启发,我们为两个关键的StarCraft II(SC2)宏观管理任务引入了一个基于变压器的神经结构:全球状态和构建秩序预测。与经常神经网络不同,变压器能够捕捉非常长的时间跨度的图案,使其非常适合全面游戏分析。我们的模型利用MSC(StarCraft II的Macro管理)数据集,改进了最高性能封闭式经常单元(GRU)的架构,以预测全球状态和构建以多个时空中平均精度衡量的秩序。我们对支持我们设计决策的拟议架构进行减缩研究。变压器的一个主要优势是能够很好地概括,我们证明我们的模型在应用传输学习环境时更加精确。在一次种族匹配(例如Terran vs. Protos)的游戏中训练模型被转移到不同的模型(例如Terran vs. Protos) 。我们认为变压器能够模拟长的游戏、平行化潜力和一般化的动作。

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
325+阅读 · 2020年11月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
3+阅读 · 2018年4月11日
Arxiv
5+阅读 · 2017年9月8日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
相关论文
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
3+阅读 · 2018年4月11日
Arxiv
5+阅读 · 2017年9月8日
Top
微信扫码咨询专知VIP会员