news 2026/5/8 21:09:29

状态空间模型解锁视频世界模型长期记忆

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
状态空间模型解锁视频世界模型长期记忆

视频世界模型能够根据给定的动作预测未来的帧序列,为人工智能代理在动态环境中进行规划和推理带来了巨大潜力。特别是视频扩散模型的最新进展,已经在生成逼真的未来序列方面显示出令人印象深刻的能力。然而,一个显著的瓶颈仍然存在:维持长期记忆。由于使用传统注意力层处理长序列的计算成本高昂,当前模型难以记住很久以前发生的事件和状态。这限制了它们执行需要持续理解场景的复杂任务的能力。

一篇来自斯坦福大学、普林斯顿大学以及某研究中心研究人员的新论文《长上下文状态空间视频世界模型》为这一挑战提出了创新的解决方案。他们引入了一种新颖的架构,该架构利用状态空间模型来扩展时间记忆,同时不牺牲计算效率。

核心问题在于注意力机制相对于序列长度的二次计算复杂度。随着视频上下文增长,注意力层所需的资源呈爆炸式增长,使得长期记忆对于实际应用变得不切实际。这意味着在超过一定数量的帧之后,模型实际上会“忘记”较早的事件,从而阻碍了其在需要长距离连贯性或长时间推理的任务上的表现。

作者的关键洞见在于利用状态空间模型在因果序列建模方面的固有优势。与之前尝试将SSM改造用于非因果视觉任务不同,这项工作充分利用了它们在高效处理序列方面的优势。

提出的长上下文状态空间视频世界模型包含几个关键的设计选择:

分块式SSM扫描方案:这是其设计的核心。他们不是用单一的SSM扫描处理整个视频序列,而是采用了分块方案。这一设计策略性地牺牲了部分空间一致性(在块内),以换取显著扩展的时间记忆。通过将长序列分解为可管理的块,模型可以维持一个压缩的“状态”,该状态携带跨块的信息,从而有效扩展模型的记忆范围。

密集局部注意力:为了弥补分块式SSM扫描可能带来的空间连贯性损失,模型融合了密集局部注意力。这确保了块内及跨块的连续帧之间保持强关联,保留了逼真视频生成所需的细粒度细节和一致性。这种全局(SSM)与局部(注意力)处理的双重方法使他们能够同时实现长期记忆和局部保真度。

论文还引入了两个关键的训练策略,以进一步提升长上下文性能:

扩散强制:这种技术鼓励模型基于输入的前缀来生成帧,有效地强制其学习在更长的时间跨度内保持一致性。有时不采样前缀并保持所有令牌带有噪声时,训练就等同于扩散强制,这被强调为长上下文训练的一种特殊情况(前缀长度为零)。这促使模型即使从最小的初始上下文也能生成连贯的序列。

帧局部注意力:为了更快的训练和采样,作者实现了“帧局部注意力”机制。这利用了FlexAttention,与完全因果掩码相比,实现了显著的加速。通过将帧分组为块(例如,每块5帧,帧窗口大小为10),块内的帧保持双向性,同时也能关注前一个块中的帧。这允许有效的感受野,同时优化计算负载。

研究人员在具有挑战性的数据集上评估了他们的模型,包括专门设计用于通过空间检索和推理任务来测试长期记忆能力的Memory Maze和Minecraft。

实验表明,他们的方法在保持长距离记忆方面显著超越了基线。补充图中的定性结果显示,与仅依赖因果注意力甚至是没有帧局部注意力的Mamba2模型相比,该模型能够在更长的时期内生成更连贯和准确的序列。例如,在迷宫数据集的推理任务上,该模型在长视野中保持了更好的一致性和准确性。同样,在检索任务中,该模型显示出从遥远过去帧中回忆和利用信息的能力有所提高。关键的是,这些改进是在保持实用推理速度的同时实现的,使得这些模型适用于交互式应用。

论文《长上下文状态空间视频世界模型》已在arXiv上发布。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 8:50:06

保险理赔自动化:HunyuanOCR识别医疗发票与事故证明材料

保险理赔自动化:HunyuanOCR识别医疗发票与事故证明材料 在保险行业,一个看似简单的车险或健康险理赔案件背后,往往藏着十几页格式各异的纸质单据——医院的门诊发票边缘泛黄、手写备注模糊不清;修理厂开具的维修清单排版错乱&…

作者头像 李华
网站建设 2026/5/4 4:23:00

还在用易留AIGC痕迹的AI工具?7款神器助知网维普查重一把过

还在用这些坑人的工具?别再自毁前程! 还在用那些动不动就暴露AIGC痕迹、查重率飙到50%以上的AI写作工具? 别再相信“随便生成就能交差”的鬼话,结果换来导师一句“这像机器写的”? 别再因为AI率爆表、查重红海&#x…

作者头像 李华
网站建设 2026/5/8 8:47:06

网盘直链下载助手助力HunyuanOCR:快速获取训练数据集与预训练权重

网盘直链下载助手助力HunyuanOCR:快速获取训练数据集与预训练权重 在AI模型日益庞大的今天,一个5GB的预训练权重文件,用百度网盘非会员下载可能要花上三四个小时——这样的等待,几乎成了每一位深度学习工程师的“必修课”。尤其当…

作者头像 李华
网站建设 2026/4/30 17:37:54

GitCode平台发布HunyuanOCR镜像:国内访问更稳定快速

GitCode平台发布HunyuanOCR镜像:国内访问更稳定快速 在智能文档处理需求日益增长的今天,企业对OCR(光学字符识别)技术的期待早已超越“把图片转成文字”这一基础功能。如何实现高精度、多语言、可定制且部署简单的端到端识别能力&…

作者头像 李华
网站建设 2026/5/4 4:35:47

部署HunyuanOCR遇到CUDA out of memory?显存优化建议汇总

部署HunyuanOCR遇到CUDA out of memory?显存优化建议汇总 在本地部署像 HunyuanOCR 这类端到端多模态大模型时,不少开发者都曾被一条红色错误信息拦住去路:CUDA out of memory。尤其是在使用消费级显卡如 RTX 4090D(24GB 显存&…

作者头像 李华