强化学习【chapter0】-学习路线图

前言:

      主要总结一下西湖大学赵老师的课程

    【强化学习的数学原理】课程:从零开始到透彻理解(完结)_哔哩哔哩_bilibili

1️⃣ 基础阶段(Ch1-Ch7):掌握表格型算法,理解TD误差与贝尔曼方程
2️⃣ 进阶阶段(Ch8-Ch9):动手实现DQN/策略梯度,熟悉PyTorch/TensorFlow
3️⃣ 前沿阶段(Ch10:          阅读论文(OpenAI Spinning Up / RLlib文档)


Chapter 1:基础概念【Basic Concepts

学习内容:核心术语与问题定义
知识点

  • State(状态)、Action(动作)、Reward(奖励)

  • Return(回报)、Episode(回合)、Policy(策略)、Env(环境)

  • 经典示例:网格世界(Grid-World)


Chapter 2:状态值-贝尔曼方程【   State Values and Bellman Equation

学习内容:强化学习的数学框架
知识点

  • 马尔可夫性质、状态转移矩阵

  • 折扣因子(γ)、贝尔曼方程

  • 最优策略的存在性证明


Chapter 3:最优状态值和最优贝尔曼方程( Optimal State Values and Bellaman Optimality Equation】

学习内容:基于模型的基础算法
知识点

  • 策略评估(Policy Evaluation)

  • 策略改进定理(Policy Improvement Theorem)


Chapter 4:经典规划算法【 Value Iteration and Policy Iteration

学习内容:求解最优策略的三大方法
知识点

  1. 值迭代(Value Iteration):迭代更新价值函数

  2. 策略迭代(Policy Iteration):策略评估+策略改进

  3. 截断策略迭代(Truncated PI):效率优化版

  • ⚠️ 依赖环境模型(需已知状态转移概率)


Chapter 5:蒙特卡洛方法【  Monte Carlo Methods

学习内容:无模型学习入门
知识点

  • 基于回合的奖励采样

  • 首次访问与每次访问MC

  • ε-贪婪策略探索


Chapter 6:【Stochastic Approximation

学习内容:在线增量学习
知识点

  • TD(0) 算法:V(s) ← V(s) + α[r + γV(s') - V(s)]

  • 偏差-方差权衡(对比MC)


Chapter 7:表格型TD算法【Temporal-Differece Methods

学习内容:经典无模型控制
知识点

  1. SARSA:On-policy TD控制,更新Q(s,a)

  2. Q-Learning:Off-policy TD控制,更新最优动作值

  • ✅ 关键区分

    • On-policy(行为策略=目标策略)

    • Off-policy(行为策略≠目标策略,如Q-learning)


Chapter 8:函数逼近与非表格方法【 Value Function Methods

学习内容:处理高维状态空间
知识点

  1. 值函数逼近(VFA)min J(w) = E[(v(S) - v̂(S,w))^2]

  2. SARSA with VFA

  3. Q-learning with VFA

  4. Deep Q-Network (DQN)

    • 经验回放(Experience Replay)

    • 目标网络(Target Network)

  •  意义:神经网络引入使RL适用于真实场景


Chapter 9:策略梯度方法【 Policy Gradient Methods

学习内容:从值函数到策略优化
知识点

  • 策略参数化:π(a|s; θ)

  • REINFORCE算法:蒙特卡洛策略梯度

  • Actor-Critic框架:结合值函数与策略


Chapter 10:高级深度强化学习【Actor-Critic Methods

学习内容:混合方法与前沿技术
知识点

  • A3C:异步并行Actor-Critic

  • PPO:近端策略优化(约束策略更新)

  • SAC:柔性Actor-Critic(熵正则化)

  • 多智能体RL:竞争与合作场景

你可能感兴趣的:(算法,人工智能,机器学习)