本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

报码:【j2开奖】专题 | 深度强化学习综述:从AlphaGo背后的力量到学习资源分享(附论文)

时间:2017-01-28 18:03来源:本港台直播 作者:开奖直播现场 点击:
编译:Xavier Massa、侯韵楚、吴攀 摘要 本论文将概述最近在深度强化学习(Deep Reinforcement Learning)方面喜人的进展。本文将从深度学习及强化学习的背景知识开始,包括了对实验平台的

编译:Xavier Massa、侯韵楚、吴攀

报码:【j2开奖】专题 | 深度强化学习综述:从AlphaGo背后的力量到学习资源分享(附论文)

摘要

本论文将概述最近在深度强化学习(Deep Reinforcement Learning)方面喜人的进展。本文将从深度学习强化学习的背景知识开始,包括了对实验平台的介绍。接着我们会介绍深度 Q 网络(Deep Q-Network,DQN)及其拓展、异步方法(asynchronous methods)、策略优化(policy optimization)、励(reward)及规划(planning)。在这之后,我会讨论注意和记忆(attention and memory)机制、非监督学习及学习去学习。随后,会讨论强化学习的各种应用,包括在游戏(特别是 AlphaGo)、机器人、口语对话系统(聊天机器人)、机器翻译、文本序列预测、神经架构设计、个性化网络服务、医疗、金融及音乐生成等方面的应用。我们会提到一些未覆盖到的主题/论文。在列举强化学习相关资源之后,我们将会以讨论结束论文。

1 导语

强化学习(RL)实际上是关于序列决策的一种工具,它能够解决包括科学研究、工程文理等学科的一系列问题(Sutton and Barto, 2017)。

增强学习及神经网络的结合可以追溯到 1990 年代(Tesauro, 1994; Bertsekas and Tsitsiklis, 1996; Schmidhuber, 2015)。而在最近深度学习的突破性进展之下(LeCun et al., 2015; Goodfellow et al., 2016),得益于大数据的普及、计算能的提升及新的算法技术,我们正见证着强化学习的复兴(Krakovsky, 2016),特别是强化学习及深度学习的结合(也就是深度强化学习(deep RL))。

我们已见证了诸多突破性进展——深度 Q 网络(Mnih et al., 2015)、AlphaGo(Silver et al., 2016)及可微分神经计算机(Graves et al., 2016)。还有一些全新的架构及应用,包括异步方法(Mnih et al., 2016)、对抗网络架构(Dueling Network Architectures,Wang et al., 2016a)、价值迭代网络(value iteration networks,Tamar et al., 2016)、用于机器翻译的双学习(dual learning for machine translation,He et al., 2016a)、口语对话系统(spoken dialogue systems,Su et al., 2016b)、信息提取(information extraction,Narasimhan et al., 2016)、 引导性策略搜索(guided policy search,Levine et al., 2016a)、 生成对抗模仿学习(generative adversarial imitation learning,Ho and Ermon,2016)、非监督的强化及辅助学习(unsupervised reinforcement and auxiliary learning,Jaderberg et al., 2017)及神经架构设计(neural architecture design,直播,Zoph and Le, 2017)等等。在这篇概述中,我们主要关注近几年的工作成果,当然也只能覆盖不完全的、一小部分成果。

我们将给读者一系列的参考资料以帮助其进一步学习:

强化学习(Sutton and Barto, 2017; Szepesvari, 2010; Bertsekas, 2012; Powell, 2011; Bertsekas and Tsitsiklis, 1996; Puterman, 2005; Littman, 2015; Kaelbling et al., 1996)

深度学习(LeCun et al., 2015; Goodfellow et al., 2016; Bengio, 2009; Deng and Dong, 2014)

机器学习(Jordan and Mitchell, 2015; Hastie et al., 2009;Bishop,2011;Murphy,2012;Jamesetal.,2013)

实用机器学习建议(Domingos,2012;Zinkevich,2017)

人工智能(Russell and Norvig, 2009)

神经网络中的深度学习(Schmidhuber,2015)

自然语言处理(Hirschberg and Manning,2015;Deng and Liu, 2017)

机器人学(Kober et al., 2013)

迁移学习(Taylor and Stone、2009;Panand Yang,2010;Weiss et al., 2016)

半监督学习(Zhu and Goldberg,2009)

贝叶斯强化学习(Ghavamzadeh et al., 2015)

口语对话系统(Hinton et al., 2012;He and Deng,2013;Young et al., 2013)

人工智能安全(Amodei et al., 2016; Garcia and Fernandez,2015)

蒙特卡洛搜索(MCTS)(Browne et al., 2012;Gelly et al., 2012)

多代理强化学习(Shoham et al., 2003;Busoniu et al., 2008)

博弈论(Leyton-Brown and Shoham,2008)等等。

我们将会在 23 节中列举强化学习资源。在 goo.gl/KoXIQC 及 goo.gl/1Q1lzg 参见强化学习的应用。

该概述的大纲如下:第二节,深度学习及强化学习的背景知识及对测试平台的介绍;第三节,对深度 Q 网络及其拓展的介绍;第四节,异步放法的介绍;第五节,策略优化;第六节,励;第七节,规划;第八节,注意和记忆机制,特别是对可微分神经计算机(DNC)的介绍;第九节,非监督学习;第十节;学习去学习(learning to learn);第十一节,游戏/博弈,包括棋类游戏、视频游戏及非完美信息博弈;第十二节,AlphaGo;第十三届,机器人学;第十四节,对话系统(聊天机器人);第十五节,机器翻译;第十六节,文字序列预测;第十七届,神经架构设计;第十八节,个性化网络服务;第十九节,医疗;第二十节,金融;第二十一节,音乐生成;第二十二节,一个未回顾论文/话题的待办清单;第二十四节,讨论。

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容