主要总结一下西湖大学赵老师的课程
【强化学习的数学原理】课程:从零开始到透彻理解(完结)_哔哩哔哩_bilibili
1️⃣ 基础阶段(Ch1-Ch7):掌握表格型算法,理解TD误差与贝尔曼方程
2️⃣ 进阶阶段(Ch8-Ch9):动手实现DQN/策略梯度,熟悉PyTorch/TensorFlow
3️⃣ 前沿阶段(Ch10: 阅读论文(OpenAI Spinning Up / RLlib文档)
学习内容:核心术语与问题定义
知识点:
State
(状态)、Action
(动作)、Reward
(奖励)
Return
(回报)、Episode
(回合)、Policy
(策略)、Env
(环境)
经典示例:网格世界(Grid-World)
学习内容:强化学习的数学框架
知识点:
马尔可夫性质、状态转移矩阵
折扣因子(γ)、贝尔曼方程
最优策略的存在性证明
学习内容:基于模型的基础算法
知识点:
策略评估(Policy Evaluation)
策略改进定理(Policy Improvement Theorem)
学习内容:求解最优策略的三大方法
知识点:
值迭代(Value Iteration):迭代更新价值函数
策略迭代(Policy Iteration):策略评估+策略改进
截断策略迭代(Truncated PI):效率优化版
⚠️ 依赖环境模型(需已知状态转移概率)
学习内容:无模型学习入门
知识点:
基于回合的奖励采样
首次访问与每次访问MC
ε-贪婪策略探索
学习内容:在线增量学习
知识点:
TD(0) 算法:V(s) ← V(s) + α[r + γV(s') - V(s)]
偏差-方差权衡(对比MC)
学习内容:经典无模型控制
知识点:
SARSA:On-policy TD控制,更新Q(s,a)
Q-Learning:Off-policy TD控制,更新最优动作值
✅ 关键区分:
On-policy
(行为策略=目标策略)
Off-policy
(行为策略≠目标策略,如Q-learning)
学习内容:处理高维状态空间
知识点:
值函数逼近(VFA):min J(w) = E[(v(S) - v̂(S,w))^2]
SARSA with VFA
Q-learning with VFA
Deep Q-Network (DQN):
经验回放(Experience Replay)
目标网络(Target Network)
意义:神经网络引入使RL适用于真实场景
学习内容:从值函数到策略优化
知识点:
策略参数化:π(a|s; θ)
REINFORCE算法:蒙特卡洛策略梯度
Actor-Critic框架:结合值函数与策略
学习内容:混合方法与前沿技术
知识点:
A3C:异步并行Actor-Critic
PPO:近端策略优化(约束策略更新)
SAC:柔性Actor-Critic(熵正则化)
多智能体RL:竞争与合作场景