B站教学,全中文课程:港中文周博磊强化学习课程完结 - 知乎

历时两个多月,本周一,香港中文大学信息工程系助理教授周博磊的中文强化学习课程终于完结了。

机器之心报道,参与:张倩。git

做为全国知名的学习网站,咱们常常能够在 B 站上看到国内外名师的讲课视频。但这些视频通常都是「搬运工」们从油管等渠道搬上来的。github

那有没有哪位大佬亲自下场当 up 主呢?香港中文大学的周博磊老师就是其中一位。算法

周博磊老师博士毕业于麻省理工学院,现任香港中文大学信息工程系助理教授,研究方向主要为机器感知和决策,重点是经过学习可解释、结构化的表征,使机器可以在复杂的环境中感知、推理和行动。编程

今年 3 月份,受疫情影响,宅在家上课的周老师作出了一个决定:把本身每周的《强化学习纲要》课程用中文讲一遍,并上传到 B 站。这一消息吸引了上万人围观。这可能也是全网第一个中文强化学习课程。框架

在过去的两个多月里,周老师基本保持着每周一更的频率,为你们录制了 10 节课程,共 16 个视频。主题包括:机器学习

  1. 归纳与基础
  2. 马尔科夫决策过程
  3. 无模型的价值函数估计和控制
  4. 价值函数的近似
  5. 策略优化基础
  6. 策略优化进阶
  7. 基于环境模型的 RL 方法
  8. 模仿学习
  9. RL 分布式系统
  10. 完结篇

该课程使用的编程语言是 Python,深度学习框架则是 TensorFlow 和 PyTorch(PyTorch 为主)。编程语言

在开课之初,周老师曾提醒你们,该课程主要面向大3、大四或研一的学生。参加课程的学生须要具有相关背景知识,包括线性代数、几率论、机器学习(数据挖掘、模式识别、深度学习)等。此外,因为该课程有很多实践内容,因此参加课程的同窗最好有一些编程经验,会用 Python、PyTorch。分布式

课是有必定难度的,从播放量的变化趋势也可略知一二。函数

但即使如此,仍是有同窗坚持到了最后,并表示受益不浅:学习

还有同窗表示,上完课感受本身变聪明了:

除了课程视频以外,周老师还在 GitHub 上更新了课程的所有代码,并且每节课后都留有做业。

下面让咱们来看一下每节课的具体内容。

9 小时 10 堂课,周老师带你走近强化学习

第一节课分上下两节,总共 44 分钟,主要介绍了课程纲要、强化学习基本概念、序列决策入门、强化学习编程实践等内容。

在第二节课上,周老师用 1 个小时的时间介绍了马尔科夫决策过程(MDP),包括 1)马尔科夫链(马尔科夫决策过程的简化版本)、马尔科夫奖励过程;2)马尔科夫决策过程的策略估计,即当给定一个决策过程以后,如何计算它的价值函数;3)马尔科夫决策过程的控制,包括策略迭代和价值迭代两种算法。

然而,在现实生活中,不少状况下没法获取准确的 MDP 模型,所以只能借助无模型的方法解决问题,这也是周老师在第三课中讲解的主要内容,包括无模型的价值函数估计和控制。

第四课的主题是价值函数的近似,包括价值函数近似的基本原理、利用价值函数近似进行预测和控制、DQN 在雅达利游戏中的应用等。

第五课是关于策略优化的基础知识,包括基于策略的强化学习、蒙特卡罗策略梯度算法、如何减少策略梯度中的方差、Actor-Critic 算法等。

前五堂课的内容都很是丰富,所有消化已很是不易,但其实这还没到最难的部分。最难的一课是第六课。

第六课依然是讲策略优化,不过难度上了一个台阶。在这堂课中,周老师主要介绍了策略梯度算法的不一样变种以及近五年来最新的策略优化过程。其中,后者能够分为两条主线,涵盖强化学习中最有名的六种算法:

因为课程只有 1 个半小时的时间,所以每一个部分不可能讲得很是详细,学到这课的同窗还须要本身去啃其中涉及的一些论文。

第七课的内容是基于模型的强化学习算法,包括概要、基于模型的价值函数优化、基于模型的策略函数优化、基于模型的算法在机器人中的应用等内容。

第八课的内容是模仿学习,包括 1)概要;2)模仿学习的两种常见算法——行为克隆和 DAGGER;3)逆强化学习和基于生成对抗训练的模仿学习;4)如何改进模型学习的模型;5)如何结合模型学习与强化学习以及 6)模仿学习在计算机视觉等任务中的应用。

第九课是强化学习系统的分布式设计,具体内容包括分布式机器学习的特色、分布式系统到强化学习系统的演变以及 AlphaGo、OpenAI Five、AlphaStar 等知名强化学习 AI 背后的系统设计。

最后一节课是复习课,把前面九节课的内容进行了梳理。

除此以外,周老师还推荐了一些强化学习方面的阅读材料,包括 OpenAI 的深度强化学习教程 Spinning-Up 和 John Schulman 的《Nuts and Bolts of Deep RL experimentation》课程。前者总结了现有的主流强化学习算法,既有代码也有讲解;后者是 John Schulman 的强化学习研究历程与经验。这些能够和本课程的推荐教材——Sutton 和 Barton 合做撰写的《强化学习》一块儿阅读。

至此,《强化学习纲要》课程告一段落。不过,周老师表示,他可能会在暑假录一些「番外」,聊一聊本身感兴趣的生成建模、无监督表征学习等内容。此外,关于机器感知与决策的内容也在筹划,有望在暑假与你们见面。

固然,因为课程比较难,你们不免有疑问。若是你在本课程学习期间遇到了问题,能够到 B 站视频的评论区留言,周老师会尽可能做答,也会有热心的同窗帮忙回答。

相关文章
相关标签/搜索