news 2026/5/10 23:27:31

流式深度强化学习突破“流式壁垒”:“意图更新”算法性能比肩SAC,计算量仅1/140

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
流式深度强化学习突破“流式壁垒”:“意图更新”算法性能比肩SAC,计算量仅1/140

一脚油门,开出了多大的坑

传统梯度学习的步长规定参数每次移动多大,但对函数输出改变多少缺乏控制。就像驾车学习停车入库,教练规定每次「踩油门0.1秒」,但不同路况下车子前进距离差异大,有时差一厘米入库,有时差30厘米撞墙。在批量训练时,样本误差平均后问题不明显,但在「流式」环境下,每步只有一个样本,无平均可言,梯度方向不稳定会导致更新幅度忽大忽小,学习过程崩溃。这种「过冲与欠冲」现象在强化学习中尤为严重,因为每个时间步的梯度幅度和方向变化大。

重新定义「一步该做多少」

Openmind研究院的Arsalan Sharifnassab与阿尔伯塔大学的Mohamed Elsayed、A. Rupam Mahmood和Richard Sutton等人,在近日发表的论文中提出换个角度思考的方案:与其指定参数移动多少,不如直接指定函数输出该改变多少。

这个想法并非凭空而来,1967年日本学者Nagumo和Noda在自适应滤波领域提出「归一化最小均方差」(NLMS)算法,本质是用期望的输出变化反推步长,但该算法只适用于简单线性场景。研究者将此思路推广到深度强化学习,提出「意图更新」:每次更新前明确「希望这一步实现什么」,然后反推出步长。

对于价值学习,定义的意图是每次更新后,当前状态的价值预测误差缩小固定比例,如5%;对于策略学习,定义的意图是当前动作的选择概率每步只允许改变「适度」的量。用驾车比喻,就是司机先决定「让车向前移动20厘米」,再根据路况自动计算踩油门深度。

图灵奖得主与他的拼图

论文署名之一是2024年图灵奖得主Richard S. Sutton,他被称为「现代强化学习之父」。Sutton提出了时间差分学习和策略梯度两个现代强化学习基础框架,还与Andrew Barto合著该领域权威教材《Reinforcement Learning: An Introduction》。他与Barto于2024年共享图灵奖,奖项评语是「为强化学习奠定了概念与算法基础」。

获奖后,Sutton将奖金投入创立的Openmind研究院,资助探索基础问题的年轻研究者。论文一作Sharifnassab此前在ICML 2025发表了MetaOptimize框架,研究在线自动调整学习率,两个课题都关注如何让步长更智能。

算法细节:比想象中简洁

「意图更新」的数学推导不复杂,核心公式为步长等于「期望的输出变化量」除以「梯度方向对输出的实际影响力」。在价值学习中,「实际影响力」是梯度向量的范数,越陡的地方步长越小,越平的地方步长越大,保证每次更新对价值函数的冲击一致。在策略学习中,「期望变化量」与优势函数成比例,通过跑动平均归一化量级,确保策略改变幅度稳定。

研究者还将核心思想与RMSProp风格的对角缩放和资格迹结合,形成三个完整算法:用于价值预测的Intentional TD (λ)、用于离散动作控制的Intentional Q (λ),以及用于连续控制的Intentional Policy Gradient。

实验结果:不靠GPU也能打平SAC

论文在多个标准基准上评估该方法,结果令人印象深刻。在MuJoCo连续控制任务上,新方法Intentional AC在流式设置下的最终性能多次接近甚至比肩SAC,而每次Intentional AC更新所需的浮点运算只有一次SAC更新的约1/140。在Atari和MinAtar离散动作游戏上,Intentional Q - learning的表现与使用回放缓冲区的DQN相当,且用同一套超参数设置跑通全部任务,无需逐个调参。

研究者验证了「意图」是否实现,测量实际更新量与预期更新量的比值,在禁用资格迹的简化设置下,该比值标准差仅为0.016到0.029,99分位数均在1.07以内,说明更新基本做到「说好要做多少就做多少」。消融实验表明,去掉RMSProp归一化或σ项后性能有所下降但仍有竞争力,「意图缩放」是首要贡献者,其他组件是辅助。

问题还是有的

「意图更新」框架在鲁棒性上有明显优势,去掉StreamX方法依赖的稳定化辅助技巧时,Intentional AC的性能退化少于原始StreamAC,说明意图缩放减少了对外部「拐杖」的依赖。

但论文也指出未完全解决的问题:策略学习中,步长依赖当前采样动作,会使不同动作被赋予不同「权重」,可能改变策略梯度的期望方向。在Humanoid和HumanoidStandup任务中,该偏差影响小;但在Ant - v4中,对齐度降至中位数0.63,问题不能忽视。作者指出未来应寻找对动作无关的步长选择策略,使「意图」在期望意义下无偏。

结语:让AI像人一样边做边学

当前主流大模型训练范式依赖海量数据批量消化,是「先学后用」,训练完成后模型冻结,无法持续更新。流式强化学习追求不依赖海量回放和庞大GPU集群,每步经历立即转化为参数更新,更接近人类和动物的学习方式。

从2024年Elsayed等人的初步突破到「意图更新」原则的提出,流式深度强化学习正快速走向成熟。它不会取代批量训练的大模型,但对于需长期在线适应的机器人、边缘设备及无法承受大规模回放缓冲区和GPU集群的应用场景,越来越有说服力。步长可控,学习就稳定。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/10 23:19:43

网盘直链下载助手:一键获取九大网盘真实下载链接的终极指南

网盘直链下载助手:一键获取九大网盘真实下载链接的终极指南 【免费下载链接】Online-disk-direct-link-download-assistant 一个基于 JavaScript 的网盘文件下载地址获取工具。基于【网盘直链下载助手】修改 ,支持 百度网盘 / 阿里云盘 / 中国移动云盘 /…

作者头像 李华
网站建设 2026/5/10 23:19:19

Nodejs项目如何集成Taotoken实现统一大模型调用

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 Nodejs项目如何集成Taotoken实现统一大模型调用 本文将指导Node.js开发者,使用官方的openai包,通过环境变量…

作者头像 李华
网站建设 2026/5/10 23:17:50

如何高效使用ncmdump:从网易云音乐NCM解密到跨平台播放的完整指南

如何高效使用ncmdump:从网易云音乐NCM解密到跨平台播放的完整指南 【免费下载链接】ncmdump 项目地址: https://gitcode.com/gh_mirrors/ncmd/ncmdump 还在为下载的网易云音乐NCM文件无法在其他播放器使用而烦恼吗?ncmdump作为一款专业的NCM解密…

作者头像 李华
网站建设 2026/5/10 23:12:37

探索分叉网络:构建替代规范,明确多项目标以避现有网络弊端

引言本文档是一系列关于构建替代网络规范的非正式笔记,旨在避开现有网络的诸多弊端,同时保留其优点。需注意,这不是正式规范,内容可能随时间改变。网络由多个组件组成,每个组件或许都要重新审视。目前,我们…

作者头像 李华
网站建设 2026/5/10 23:11:50

终极视频下载解决方案:VideoDownloadHelper完全使用指南

终极视频下载解决方案:VideoDownloadHelper完全使用指南 【免费下载链接】VideoDownloadHelper Chrome Extension to Help Download Video for Some Video Sites. 项目地址: https://gitcode.com/gh_mirrors/vi/VideoDownloadHelper 你是否经常在浏览网页时发…

作者头像 李华