news 2026/4/15 14:55:35

Q-learning 算法 —— 无模型(model-free)强化学习

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Q-learning 算法 —— 无模型(model-free)强化学习

眼里没有对纪念日的专属感言,只有对优质文章诞生的渴望!!!

    • 一、研究背景与意义
    • 二、Q-learning 的核心思想
      • 1. 状态-动作价值函数(Q 函数)
      • 2. 核心创新点
    • 三、Q-learning 的更新公式(核心公式)
    • 四、Q-learning 的算法流程
    • 五、理论基础与收敛性(Watkins 的重要贡献)

1989 年,Christopher J. C. H. Watkins在其博士论文中系统提出并分析了Q-learning 算法, 开创无模型(model-free)强化学习理论体系,为智能体在未知环境中通过试错交互直接学习最优状态-动作价值函数。

一、研究背景与意义

  • 80 年代以前的强化学习 =已知 MDP + 动态规划 + 解 Bellman 方程
  • Watkins 的Q-learning = 未知环境 + 交互采样 + 收敛保证

在 20 世纪 80 年代以前,强化学习研究多依赖于已知环境模型(如马尔可夫决策过程 MDP 的转移概率与奖励函数),典型方法包括动态规划。

但在现实问题中:

  • 环境模型往往未知或难以精确建模
  • 状态空间可能很大
  • 只能通过与环境交互获得经验

Watkins 的核心贡献在于:

不需要已知环境模型,仅通过经验样本,就能在理论上保证收敛到最优策略。

这使强化学习真正具备了“从试错中学习”的能力。

二、Q-learning 的核心思想

1. 状态-动作价值函数(Q 函数)

在强化学习中,Q-learning 直接学习状态-动作价值函数

Q ∗ ( s , a ) = E [ ∑ t = 0 ∞ γ t r t + 1 ∣ s 0 = s , a 0 = a , π ∗ ] Q^*(s,a) = \mathbb{E}\left[\sum_{t=0}^{\infty} \gamma^t r_{t+1} \mid s_0=s, a_0=a, \pi^*\right]Q(s,a)=E[t=0γtrt+1s0=s,a0=a,π]

含义:在状态s ss下采取动作a aa,并在此后始终执行最优策略所能获得的期望折扣回报。

一旦得到Q ∗ ( s , a ) Q^*(s,a)Q(s,a),最优策略可直接由:

π ∗ ( s ) = arg ⁡ max ⁡ a Q ∗ ( s , a ) \pi^*(s) = \arg\max_a Q^*(s,a)π(s)=argamaxQ(s,a)

得到。

2. 核心创新点

Q-learning 的关键思想是:

  • 不学习环境模型(转移概率、奖励函数)
  • 直接逼近最优 Q 函数
  • 采用“贪婪目标 + 任意行为策略”进行学习

这使它成为一种off-policy 强化学习算法

三、Q-learning 的更新公式(核心公式)

Watkins 提出的 Q-learning 更新规则如下:

Q ( s t , a t ) ← Q ( s t , a t ) ∗ α [ r t + 1 ∗ γ max ⁡ a ′ Q ( s t + 1 , a ′ ) − Q ( s t , a t ) ] Q(s_t, a_t) \leftarrow Q(s_t, a_t) * \alpha \Big[ r_{t+1} * \gamma \max_{a'} Q(s_{t+1}, a') - Q(s_t, a_t) \Big]Q(st,at)Q(st,at)α[rt+1γamaxQ(st+1,a)Q(st,at)]

各项解释:

  • s t , a t s_t, a_tst,at:当前状态与动作
  • r t + 1 r_{t+1}rt+1:执行动作后获得的即时奖励
  • s t + 1 s_{t+1}st+1:下一状态
  • α \alphaα:学习率(learning rate)
  • γ \gammaγ:折扣因子(discount factor)
  • max ⁡ a ′ Q ( s t + 1 , a ′ ) \max_{a'} Q(s_{t+1}, a')maxaQ(st+1,a)对下一状态采取最优动作的估计回报

📌关键点:即使当前执行的动作不是最优的,更新时仍然假设“下一步采取最优动作”,这正是off-policy的本质。

四、Q-learning 的算法流程

典型 Q-learning 算法步骤如下:

  1. 初始化:对所有状态-动作对,初始化Q ( s , a ) Q(s,a)Q(s,a)(通常为 0 或随机值)

  2. 重复以下过程(每个 episode)

    • 初始化状态s ss
    • 在状态s ss下,根据某种行为策略(如 ε-greedy)选择动作a aa
    • 执行动作,观察奖励r rr和下一状态s ′ s's
    • 按 Q-learning 更新公式更新Q ( s , a ) Q(s,a)Q(s,a)
    • s ← s ′ s \leftarrow s'ss
    • 若到达终止状态,结束 episode
  3. 最终策略π ( s ) = arg ⁡ max ⁡ a Q ( s , a ) \pi(s) = \arg\max_a Q(s,a)π(s)=argmaxaQ(s,a)

五、理论基础与收敛性(Watkins 的重要贡献)

Watkins 在理论上证明了:

在以下条件下,Q-learning几乎必然收敛到最优Q QQ函数Q ∗ Q^*Q

  1. 所有状态-动作对被无限次访问
  2. 学习率满足 Robbins–Monro 条件:∑ t α t = ∞ , ∑ t α t 2 < ∞ \sum_t \alpha_t = \infty,\quad \sum_t \alpha_t^2 < \inftytαt=,tαt2<
  3. 环境是有限状态、有限动作的 MDP
  4. 折扣因子γ < 1 \gamma < 1γ<1

这是无模型强化学习中首个具有严格收敛性证明的算法之一

没有 1989 年的 Q-learning,就没有后来的深度强化学习浪潮。

Watkins 的 Q-learning 直接催生了大量后续研究:

  • 表格型强化学习的标准算法
  • Deep Q-Network (DQN):用神经网络近似 Q 函数(DeepMind, 2013)
  • Double Q-learning、Dueling DQN、Prioritized Replay 等改进
  • 成为现代深度强化学习的理论起点之一
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/13 22:27:39

EmotiVoice在正念练习中的引导语音应用

EmotiVoice在正念练习中的引导语音应用 在深夜难以入眠时&#xff0c;你是否曾希望耳边响起一个熟悉而温柔的声音&#xff0c;像老友轻声细语般陪你放松&#xff1f;在冥想过程中&#xff0c;机械单调的电子音总让人分心&#xff0c;而真正能安抚情绪的&#xff0c;往往是那种带…

作者头像 李华
网站建设 2026/4/13 19:36:02

无线充电技术:基于LCC-S拓扑的无线电能传输仿真模型研究,采用Ansys软件搭建矩形线圈simul...

无线充电/无线电能传输LCC-S拓扑仿真模型 WPT 闭环恒压输出控制&#xff0c;输出电流0-30A可调&#xff0c;标准85k频率。 线圈仿真模型的搭建软件为ansys&#xff0c;线圈类型为矩形线圈。 simulink模型或线圈仿真模型LCC-S拓扑在无线充电系统里属于谐振补偿里的狠角色。今天…

作者头像 李华
网站建设 2026/4/13 2:37:31

Java如何通过JNI实现调用C/C++代码,你知道吗?

在软件开发中&#xff0c;Java调用C/C代码是一项提升性能、复用遗留库的关键技术。其核心是通过Java本地接口&#xff08;JNI&#xff09;建立桥梁&#xff0c;让运行在JVM上的Java代码能够与本地机器码交互。理解其原理和正确使用方式&#xff0c;能帮助开发者解决纯Java难以处…

作者头像 李华
网站建设 2026/4/13 13:36:13

《深入理解 Ascend C:华为昇腾 AI 芯片的高性能编程语言》

引言&#xff1a;为什么需要 Ascend C&#xff1f;随着人工智能技术的飞速发展&#xff0c;算力需求呈指数级增长。传统通用处理器&#xff08;如 CPU&#xff09;在处理大规模神经网络计算时逐渐显现出性能瓶颈&#xff0c;而 GPU 虽然在并行计算方面表现优异&#xff0c;但其…

作者头像 李华
网站建设 2026/4/12 18:22:16

降AIGC率解读:10大工具+通俗说明推荐

降AIGC率解读&#xff1a;10大工具通俗说明推荐 &#xfffd;&#xfffd; 10大降AIGC工具核心对比速览 工具名称 处理速度 效果显著度 专业术语保留 适用场景 aibiye ⚡⚡⚡⚡ ⭐⭐⭐⭐ ✅✅✅ 高重复率论文紧急降重 aicheck ⚡⚡⚡ ⭐⭐⭐⭐ ✅✅✅✅ 法律/医学…

作者头像 李华
网站建设 2026/4/13 5:19:06

开源敏捷协作平台完整教程:提升团队效率的终极指南

你是否正在为项目管理效率低下而苦恼&#xff1f;传统工具无法满足敏捷团队需求&#xff0c;跨部门协作困难重重&#xff0c;任务进度跟踪犹如雾里看花。我们深知这些问题困扰着无数开发团队&#xff0c;今天将为你呈现开源敏捷协作平台的完整解决方案&#xff0c;助你彻底摆脱…

作者头像 李华