news 2026/4/3 14:02:57

RK-∞降维打击Mamba?线性注意力真的有“免费午餐”!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
RK-∞降维打击Mamba?线性注意力真的有“免费午餐”!

这顿“免费午餐”,或许正是通向长文本高保真建模的下一块基石。

在大模型迈向超长上下文的当下,混合注意力(Hybrid Attention)已成为 MiniMax、Qwen、Kimi 及 NVIDIA 等厂商竞相采用的技术底座。其核心逻辑通常是利用 Softmax 注意力捕捉近距离依赖,配合线性注意力或状态空间模型(SSMs)处理远距离背景。

然而,作为一种长期被视为“次优近似”的组件,线性注意力在超长序列下始终难以摆脱数值漂移和记忆退化的问题。

南洋理工大学与复旦大学的一项最新工作,把矛头直接指向了这一问题最容易被忽略的根源:问题不在模型结构,而在数值方法。

研究者提出了 EFLA(Error-Free Linear Attention),指出我们过去一直用一阶欧拉法去离散一个本应精确求解的连续动力学系统,才是导致不稳定和性能退化的根源。

更关键的是,这项工作证明,在保持线性时间复杂度不变的前提下,通过引入无限阶 Runge–Kutta 级别的解析解,可以彻底消除离散化误差。

这意味着线性注意力第一次不再以“近似”为代价:在不增加任何参数的情况下,实现了稳定性与性能的同步提升,并在多个基准上超越了 DeltaNet 等主流方案。

论文标题:

Error-Free Linear Attention is a Free Lunch: Exact Solution from Continuous-Time Dynamics

论文链接:

https://arxiv.org/abs/2512.12602

代码链接:

https://github.com/declare-lab/EFLA

研究背景

当大语言模型进化为需要处理超长推理轨迹的 Agent 时,标准注意力的二次方复杂度成了不可逾越的鸿沟。

线性注意力试图通过维护一个矩阵状态来存储键值对关联,从而实现线性推理:

但这种无限制的累加会导致记忆干扰和状态爆炸。为了解决这一问题,DeltaNet 将状态更新建模为对重构损失的在线梯度下降:

由此推导出的 Delta Rule 更新公式如下:

这正是问题的根源所在。论文指出,这一更新步骤在数学本质上等效于对一个一阶线性常微分方程(ODE)进行一阶显式欧拉离散化。

该底层的连续时间 ODE 为:

其中为动力学矩阵,为输入强制项。

数值分析表明,欧拉法的局部截断误差高达。在处理长上下文或刚性(Stiff)动力学系统时,这种低阶近似会导致误差迅速累积,表现为记忆的过早遗忘或数值漂移。

此前诸如门控(Gating)或自适应遗忘系数等尝试,本质上只是对低阶误差的启发式修正。

核心方法

作者提出,消除误差的终极方案不是去优化离散化步长,而是直接寻找底层 ODE 的解析解。

2.1 解析解的导出

基于数字系统中常用的零阶保持(ZOH)假设,状态在每个时间步内的演化可以看作是在 piecewise constant 的下进行的。

该 ODE 在步长内的通用解析解为:

这个解析解代表了数值积分中 Runge-Kutta 家族的无限阶极限(RK-)。

2.2 利用 Rank-1 结构突破计算瓶颈

通常计算矩阵指数需要的复杂度。但 EFLA 的设计者捕捉到了一个极其关键的数学特性:动力学矩阵是一个秩-1(Rank-1)矩阵。

秩-1 矩阵具有幂等相关的特殊属性:,其中。利用这一性质,矩阵指数的泰勒展开可以直接塌缩为一个简洁的闭式解:

将此项代入积分项并经过严谨的代数简化,最终得到了 EFLA 的精确更新规则:

这一公式在消除离散化误差的同时,计算复杂度仍维持在。这证明了在 Rank-1 约束下,解析解是“免费”获得的。

3.3 光谱门控(Spectral Gate)与遗忘机制

不同于 DeltaNet 强制要求对 Key 进行归一化,EFLA 使用非归一化 Key。在此框架下,充当了光谱门控(Spectral Gate)的角色:

强输入信号(大 Key 范数):会导致状态沿着方向发生快速的指数级衰减,迅速清理旧槽位以为新信息腾空间。

弱输入信号(小 Key 范数):则表现为缓慢的衰减,最大程度保留历史背景。这种方向性衰减机制使得 EFLA 具备了比传统线性注意力更强的记忆动态管理能力。

3.4 对标 Mamba:阶数的代际压制

这是一个非常有趣的对比点。现代 SSM 模型如 Mamba 通常采用双线性变换进行离散化,这在数学上等价于隐式二阶 Runge-Kutta 方法。而 EFLA 通过剥离 Rank-1 矩阵指数,直接跨越到了 RK-∞ 级别。

这意味着在理论数值精度上,EFLA 对现有的有限阶 SSM 构成了一次降维打击。

实验结果

作者通过 sMNIST 和大规模语言建模实验验证了 EFLA 的优越性。

3.1 鲁棒性压力测试

在 Sequential MNIST (sMNIST) 任务中,作者通过人为引入像素丢失、信号缩放和高斯噪声来模拟极端不稳定的输入环境。

〓 图1. EFLA 与 DeltaNet 在 sMNIST 上的收敛速度与鲁棒性对比

实验揭示了两个关键现象:

对抗信号爆炸:当输入被放大(Scale 增加)时,基于一阶近似的 DeltaNet 性能迅速崩溃,确认了低阶近似在处理高能信号时的脆弱性。而 EFLA 依靠精确的指数饱和机制有效防止了状态爆炸。

高保真记忆:在噪声干扰下,EFLA 的性能退化速度远慢于基线,证明其构建了更高保真的记忆表示。

3.2 语言建模能力评估

在大规模实验中,EFLA 全面超越了 DeltaNet 基准。

〓 表1. EFLA 与 DeltaNet 在语言建模主实验中的结果对比。

从表 1 数据可以清晰看到:

在 LAMBADA 任务上,EFLA 将 Perplexity 从 96.26 压低至 81.28(340M 规模)。在 BoolQ 准确率上,EFLA 实现了 +7.4% 的巨大飞跃。

这些结果有力地证明了,通过消除数值离散化误差,模型能够显著提升对长序列历史信息的保留精度。

3.3 反直觉的优化策略:更大的学习率

实验发现,EFLA 由于存在指数级的饱和效应(Saturation effect),可能导致梯度信号在收敛阶段受阻。

〓 图2. 学习率缩放对 EFLA 鲁棒性的影响。

如图 2 所示,相比传统的保守策略,EFLA 在更大的学习率下展现出更强的鲁棒性。这种反直觉的超参数设置是释放其理论潜力的关键要素。

结语

EFLA 是一项具有高度理论美感的成果。它向我们证明了,线性注意力长期以来的性能瓶颈并非由于架构本身的基因缺陷,而是源于我们在数值实现上的粗糙妥协。

通过利用 Rank-1 特性绕过复杂的数值积分,EFLA 在不增加计算成本的前提下,实现了从一阶欧拉近似到无限阶解析解的跨越。

对于目前正处于混合注意力深水区的工业界而言,EFLA 提供了一套直接且高效的升级路径。它告诉我们,最优雅、最强力的解决方案往往就藏在最底层的连续时间方程之中。

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/27 19:40:44

告别黑箱输出:Kotaemon实现答案溯源与过程透明

告别黑箱输出:Kotaemon实现答案溯源与过程透明在医疗咨询中,AI建议患者使用某种药物——但医生问“这结论有依据吗?”系统却无法提供来源;在法律检索场景下,模型给出一份看似合理的判例分析,却夹杂着虚构的…

作者头像 李华
网站建设 2026/4/1 7:14:27

FaceFusion能否处理多重反射画面?玻璃幕墙干扰消除

FaceFusion能否处理多重反射画面?玻璃幕墙干扰消除在城市核心区的写字楼群中,一个行人走过玻璃幕墙时,监控摄像头捕捉到的画面里却出现了三张“他”的脸——一张真实正脸,两张分别来自不同角度的镜像。传统人脸识别系统会如何应对…

作者头像 李华
网站建设 2026/4/3 3:04:26

效率拉爆:IntelliJ IDEA 中的这几款 AI 编程插件你都用过吗?

往期热门文章:1、Spring6.0Boot3.0:秒级启动、万级并发的开发新姿势2、IDEA 2025.3 正式发布,骚操作,跟不上!3、干掉 VMware!!ProxmoxVE 真香~4、有哪些话一听就知道一个程序员是个水货&#xf…

作者头像 李华
网站建设 2026/3/31 4:01:03

医疗知识问答系统搭建指南:基于Kotaemon全流程演示

医疗知识问答系统搭建指南:基于Kotaemon全流程演示在三甲医院的深夜值班室里,住院医师小李正为一位疑似心衰患者的用药方案焦头烂额。他需要快速确认《中国心力衰竭诊断和治疗指南》中关于ARNI类药物的最新推荐等级,但翻遍手机里的PDF文件却始…

作者头像 李华
网站建设 2026/3/29 5:31:15

Kotaemon针灸穴位查询:可视化经络图谱展示

Kotaemon针灸穴位查询:可视化经络图谱展示在中医临床与教学一线,一个老生常谈的问题始终存在:如何准确、快速地定位数百个分布复杂、命名抽象的穴位?尤其是对初学者而言,面对“腕横纹上1.5寸”“两筋之间”这类描述&am…

作者头像 李华