趋近智
在处理大型或连续状态空间时,将每个状态或状态-动作对的值存储在表格中变得不可行。想象一下,为自动驾驶汽车创建一个Q表,其状态包括摄像头图像和激光雷达数据等传感器读数,状态空间几乎是无限的!表格方法根本无法扩展。
解决方法是从显式存储转向估计。我们不再学习每个状态或状态-动作对的精确值 vπ(s) 或 qπ(s,a),而是学习一个参数化函数来近似这些值。这种技术被称为价值函数近似 (VFA)。
我们引入一个函数,称之为 v^,它以状态 s 和参数向量 w 作为输入,并输出一个估计的状态值:
v^(s,w)≈vπ(s)类似地,我们可以用函数 q^ 来近似动作价值函数 qπ(s,a),它以状态 s、动作 a 和参数 w 作为输入:
q^(s,a,w)≈qπ(s,a)这里,w 是一个权重或参数向量(例如,线性模型中的系数或神经网络中的权重)。主要思路是 w 中的参数数量远小于状态总数 ∣S∣ 或状态-动作对总数 ∣S∣×∣A∣。例如,我们可能有数百万个状态,但 w 中可能只需要几百或几千个参数。
使用函数近似的主要优点是泛化能力。因为函数近似器根据参数 w 学习一种关系,它甚至可以估计以前从未遇到过或很少遇到的状态的值。如果两个状态 s1 和 s2 被认为是“相似的”(这通常由我们如何表示它们来决定,我们很快会讨论),函数近似器很可能会产生相似的值估计 v^(s1,w) 和 v^(s2,w)。这使得智能体可以借助在状态空间某部分获得的经验,在其他相似部分做出更好的决策。相比之下,表格方法独立对待每个状态;了解 s1 对 s2 没有帮助。
我们可以为 v^ 和 q^ 使用各种类型的函数。常见选择包括:
在本课程中,我们将主要关注线性方法,并介绍使用神经网络的原理。
我们使用VFA的目标是找到参数向量 w,使我们的近似值 v^(s,w) 或 q^(s,a,w) 尽可能接近真实价值函数 vπ(s) 或 qπ(s,a)(或最优的 v∗(s) 或 q∗(s,a))。这通常被表述为最小化一个误差目标,例如在遇到的状态分布上的均方价值误差(MSVE):
MSVE(w)=s∈S∑d(s)[vπ(s)−v^(s,w)]2其中 d(s) 是一个权重,表示我们对状态 s 中误差的重视程度。
虽然直接最小化MSVE通常是目标,但我们使用的算法(如TD学习的变体)由于RL更新的性质,实际上优化的是略微不同的目标。
你可能会发现,寻找参数 w 听起来与监督学习相似。我们有输入(状态 s,或状态-动作对 (s,a)),并且我们想预测目标输出(真实值 vπ(s) 或 qπ(s,a))。确实,我们将使用像梯度下降这样的技术来更新 w,这在监督学习中很常见。
然而,存在一个重要的不同:在强化学习中,我们通常不知道真实的目标值 vπ(s) 或 qπ(s,a)。相反,我们使用从与环境交互中获得的这些值的估计(例如,观察到的奖励和随后的估计值,如在TD学习中)。这意味着我们的目标值通常是嘈杂的、有偏的,并且非平稳的(它们随着策略和价值估计的改进而变化),这与标准监督学习相比带来了独特的难题。
在接下来的部分中,我们将了解如何使用特征表示状态,以及如何在强化学习框架内应用基于梯度的方法来学习线性函数近似器和非线性函数近似器的参数 w。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造