【Udemy中英字幕】Reinforcement Learning (English): Master the Art of RL
最近更新 2023年06月26日
资源编号 40785

【Udemy中英字幕】Reinforcement Learning (English): Master the Art of RL

2023-06-26 Udemy 0 1,012
郑重承诺丨视频 中英文字幕 配套课件
增值服务:免费提供代找课服务:
¥ 39.9 金币
VIP折扣
    折扣详情
  • 体验会员

    免费

  • 包月会员

    免费

  • 包年会员

    免费

  • 永久会员

    免费

开通VIP尊享优惠特权
立即下载 升级会员
微信扫码咨询 微信扫码咨询
进入TA的商铺 联系官方客服
信息属性
详情介绍

强化学习(英文):掌握 RL 的艺术

强化学习

讲师:Coursat.ai Dr. Ahmad ElSallab

双语IT资源独家Udemy付费课程独家中英文字幕配套资料齐全!

不到1/10的价格,即可享受同样的高品质课程,且可以完全拥有,随时随地都可以任意观看和分享。

你将学到什么

  • 定义什么是强化学习?
  • 使用 OpenAI Gym、StabeBaselines、Keras-RL 和 TensorFlow Agents 等最先进的库应用所学到的所有知识
  • 定义 RL 的应用领域和成功案例是什么?
  • 定义强化学习和监督学习之间有什么区别?
  • 定义强化学习问题设置的主要组成部分?
  • 定义 RL 代理的主要成分及其分类是什么?
  • 定义什么是马尔可夫奖励过程(MRP)和马尔可夫决策过程(MDP)?
  • 使用 MDP 框架定义 RL 的解空间
  • 使用动态规划算法(例如策略评估、策略迭代和值迭代)进行规划来解决 RL 问题
  • 使用无模型算法(例如 Monte-Carlo、TD 学习、Q 学习和 SARSA)解决 RL 问题
  • 区分在策略和离策略算法
  • 掌握深度强化学习算法,例如深度 Q 网络 (DQN),并将其应用于大规模强化学习
  • 掌握策略梯度算法和 Actor-Critic(AC、A2C、A3C)
  • 掌握先进的 DRL 算法,如 DDPG、TRPO 和 PPO
  • 定义什么是基于模型的强化学习,并将其与规划区分开来,它们的主要算法和应用是什么?

要求

  • 机器学习基础知识
  • 深度学习基础知识
  • 可能性
  • 编程和解决问题的基础知识
  • Python编程

描述

您好,欢迎来到我们的课程;强化学习。

强化学习是机器学习和人工智能中一个非常令人兴奋且重要的领域。有人称其为人工智能皇冠上的宝石。

在本课程中,我们将涵盖与强化学习或 RL 相关的所有方面。我们将从定义 RL 问题开始,并将其与监督学习问题进行比较,并发现 RL 可以擅长的应用领域。这包括问题的表述,从深度学习的基础知识到高级用法,从而进入深度强化学习时代。

在我们的旅程中,我们将像往常一样涵盖理论和实践方面,我们将学习如何实现 RL 算法,并使用 OpenAI Gym、Keras-RL、TensorFlow Agents 或 TF- 等库将它们应用于著名的问题。代理和稳定的基线。

该课程分为 6 个主要部分:

1-我们首先介绍强化学习问题的定义,主要将其与监督学习问题进行比较,并发现强化学习问题的应用领域和主要组成部分。我们在这里描述了著名的 OpenAI Gym 环境,当涉及到我们所学算法的实际实现时,这将是我们的游乐场。

2-在第二部分中,我们讨论 RL 问题的主要表述为马尔可夫决策过程或 MDP,并使用动态规划简单地解决最基本的问题。

3- 了解 MDP 后,我们继续探索 MDP 问题的解决方案空间,以及 DP 之外的不同解决方案,包括基于模型和无模型的解决方案。我们将在这一部分中重点关注无模型解决方案,并将基于模型的解决方案推迟到最后一部分。在这一部分中,我们描述基于蒙特卡罗和时间差分采样的方法,包括著名且重要的Q学习算法和SARSA。我们将描述 Q-learning 和 SARSA 在 OpenAI Gym 环境中控制表格迷宫问题的实际用法和实现。

4- 为了超越简单的表格问题,我们需要学习 RL 中的函数逼近,这导致了当今使用深度学习或深度强化学习 (DRL) 的主流 RL 方法。这里我们将介绍 DeepMind 解决 Atari 游戏和 AlphaGO 的突破性算法,即 Deep Q-Networks 或 DQN。我们还讨论了如何在实践中使用 Keras-RL 和 TF-Agents 使用 DQN 解决 Atari 游戏问题。

5-在第五部分中,我们转向高级 DRL 算法,主要属于基于策略的方法系列。我们在这里讨论策略梯度、DDPG、Actor-Critic、A2C、A3C、TRPO 和 PPO 方法。我们还讨论了重要的稳定基线库,用于在 OpenAI Gym 的不同环境(如 Atari 等)上实现所有这些算法。

6-最后,我们探索基于模型的 RL 方法系列,重要的是,将基于模型的 RL 与规划区分开来,并探索整个 RL 方法。

希望您喜欢本课程并发现它很有用。

本课程适合谁:

  • 机器学习研究人员
  • 机器学习工程师
  • 数据科学家
请注意:
如果你有能力,请务必支持课程的原创作者,这是他们应得的报酬!
本站收取的费用,仅用来维持网站正常运行的必要支出,从本站下载任何内容,说明你已经知晓并同意此条款。

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务