news 2026/2/7 13:37:26

比传统方法强7倍:Anthropic物理隔离危险知识,重塑大模型安全训练范式

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
比传统方法强7倍:Anthropic物理隔离危险知识,重塑大模型安全训练范式

Anthropic团队提出选择性梯度掩码技术,通过在训练阶段将危险知识物理隔离到特定参数中并在随后剔除,实现了比传统数据过滤更优的安全性与通用能力平衡,其抗恢复性是现有方法的7倍。

Anthropic研究团队联合帝国理工学院、爱丁堡大学及Constellation的研究人员,发布了一项名为选择性梯度掩码(Selective GradienT Masking,简称SGTM)的新技术。

这项研究直面大语言模型在安全领域的核心难题,即如何在保留人类通用知识的同时,彻底剥离关于化学、生物、放射性及核(CBRN)武器等危险领域的双重用途能力。

研究不仅揭示了传统数据过滤方法的局限性,更通过一种近乎外科手术般的参数隔离手段,为构建安全的超级模型提供了全新的技术路径。

数据过滤面临不可能三角困境

构建安全模型的传统思路非常直观,业界普遍采用数据过滤法,即在预训练阶段就把有害数据清洗掉。

不想让模型学会制造生化武器,就不给它看相关的教科书和论文,这种看似合理的逻辑在模型规模不断扩大的当下遭遇了严峻的现实挑战。

标注成本与准确性的矛盾难以调和,想要在数以十亿计的文档中精准识别出所有涉及CBRN的内容,成本高昂且极易出错。

数据量的庞大意味着任何微小的误判率都会导致海量的有害信息漏网或有益信息被误删,更棘手的是有害内容往往隐藏在良性文档中。

一本普通的化学教科书,绝大部分篇幅都在讲基础化学原理,这些是模型理解科学世界所必需的通用知识,但其中可能夹杂着一两章关于有毒化合物合成的内容,若直接剔除整本书,模型将失去宝贵的化学常识,若保留,危险知识便随之潜入。

双重用途知识的纠缠特性使得彻底分离成为一种奢望,许多科学概念本质上是中立的,既可用于研发救命药物,也能用于制造致命毒素,离心机技术既是核能发电的关键,也是浓缩铀的核心,这种知识的纠缠使得简单的二元分类失效。

随着模型采样效率的提升,即便只有极少量的有害数据残留,大模型依然能够从中提取出危险能力,这导致了一种无法避免的权衡,要么接受模型包含危险知识的风险,要么通过过度激进的过滤牺牲模型的通用智能。

现有事后安全措施如拒绝回答训练,虽然能阻止模型直接输出有害信息,但往往无法抵御坚定的对抗性攻击,攻击者总能找到绕过防御的方法,诱导模型释放其潜藏的危险能力。

SGTM不再试图在输入端完美区分数据,而是改变了模型存储知识的方式。

梯度掩码实现知识物理隔离

SGTM的核心理念源自梯度路由(Gradient Routing),即在模型训练过程中,人为地将特定类型的知识引导至特定的模型参数中。

研究团队将Transformer架构中的参数划分为两类,一类是负责存储通用知识的保留参数,另一类是专门用于存储危险知识的遗忘参数,这些参数具体分布在每一层Transformer块的注意力头(Attention Heads)和多层感知机(MLP)神经元中。

在训练过程中,当模型遇到被标记为危险的数据(如CBRN相关内容)时,SGTM会启动选择性梯度掩码机制,此时算法会强制将损失函数产生的梯度更新仅应用于那些被指定为遗忘参数的部分,而保留参数则被冻结或忽略,不受该数据的更新影响。

这相当于在模型的大脑中划定了一个隔离区,所有危险知识在进入模型时,都被强制路由并存储到了这个特定的区域,而通用知识则正常分布在保留参数中。

这种机制在训练完成后展现出了强大的威力,由于危险知识被物理隔离在特定的参数子集中,去除这些能力变得异常简单且彻底。

研究人员只需将这些遗忘参数的权重清零或重置,就能像切除肿瘤一样,精准地移除危险能力,同时最大程度地保留存储在其他参数中的通用能力。

这种方法从根本上区别于传统的数据过滤,它允许模型阅读包含危险信息的文档,从而学习其中的通用语法、逻辑和背景知识,但将危险的核心要素隔离存储以便后续切除。

自强化吸收效应解决标注难题

SGTM最令人惊叹的特性在于其对未标记数据的处理能力,也就是所谓的吸收效应(Absorption)。

在实际应用中,我们不可能完美标记所有危险数据,总会有漏网之鱼,SGTM利用了神经网络的一种内在动力学特性,一旦模型开始根据已标记的样本将危险知识定位到特定的遗忘参数中,一个自强化的过程便随之产生。

这种自强化过程意味着,即使是未被标记的危险内容,在经过模型处理时,也会自然地倾向于激活并更新那些已经专门用于处理此类信息的遗忘参数。

研究团队通过梯度范数分析证实了这一现象,在双语TinyStories实验中,研究者将英语作为保留数据,西班牙语作为遗忘数据。

初期仅对部分标记数据应用梯度掩码,随后在处理未标记数据时,研究者发现,西班牙语数据产生的梯度更新自然而然地集中在了遗忘参数上,而英语数据则主要更新保留参数。

这意味着模型内部建立起了专门处理特定领域知识的通路,就像水流自然会沿着已有的河道流动一样,未标记的危险内容会被自动吸收到遗忘参数中。

这种特性赋予了SGTM极强的鲁棒性,即使训练数据存在大量标签噪声或遗漏,它依然能够有效地将危险知识隔离。

这是传统数据过滤方法完全无法具备的优势,数据过滤一旦漏标,危险知识就会均匀扩散到整个模型中,而SGTM则能利用模型自身的泛化能力捕捉漏网之鱼。

暴力微调验证知识彻底清除

检验一种知识移除方法是否有效,最硬核的标准不是看模型在正常对话中是否拒绝回答,而是看它在遭受恶意攻击试图恢复记忆时能坚持多久。

目前流行的浅层遗忘学习方法(如RMU),往往只是压抑了模型输出危险知识的倾向,并未真正清除相关权重,一旦攻击者对模型进行少量的对抗性微调,这些被压抑的知识就会迅速反弹。

研究团队对SGTM训练出的模型进行了残酷的对抗性微调测试,试图通过输入50/50混合的生物学与通用数据来恢复被移除的生物学知识。

结果显示,传统的遗忘学习方法不堪一击,仅需50步微调(约1300万token),模型原本被移除的生物学能力就完全恢复到了基线水平,这表明知识从未真正消失,只是被藏了起来。

相比之下,SGTM展现出了惊人的抗恢复性,攻击者需要进行长达350步的微调(约9200万token),才能将模型的生物学能力恢复到基线水平,这一难度是传统方法的7倍。

这一数据与经过严格数据过滤训练的模型表现相当,证明SGTM不仅仅是抑制了知识的表达,而是真正实现了知识的物理移除。

只有当攻击者通过微调重新向模型灌输大量新知识时,这种能力才会重新出现,这本质上已经是重新训练而非记忆恢复了。

在与弱过滤(仅移除生物学文章)和强过滤(移除生物、医学、化学、环境文章)的对比实验中,SGTM展现出了更优越的保留与遗忘权衡。

在相同的通用能力保留水平下,SGTM能更彻底地清除生物学知识,而在相同的生物学知识清除水平下,SGTM能保留更多的医学和化学等相邻领域的知识。

它避免了强过滤带来的焦土政策,即为了安全不得不牺牲大量相关领域的有益知识,同时也弥补了弱过滤在处理纠缠知识时的无力。

机制局限与未来防御图景

尽管SGTM在2.54亿参数规模的模型上取得了令人振奋的成果,但研究团队保持了严谨的科学态度,坦诚指出了当前的局限性。

目前实验尚未在更大规模的模型或混合专家(MoE)架构上进行验证,而MoE正是当前万亿参数模型的主流架构,其稀疏激活的特性是否会影响梯度路由的效果,仍需进一步探索。

此外,评估主要依赖于损失指标,未来需要引入如WMDP等更直接衡量危险能力的下游基准测试。

必须清醒地认识到,SGTM主要解决的是模型参数知识的安全性。

它无法防御上下文攻击(In-context Attacks),如果攻击者在提示词中直接提供了制造生化武器所需的全部详细步骤和配方,即便模型本身不具备这些知识,它仍可能利用其强大的逻辑推理和文本处理能力,帮助攻击者梳理和优化这些信息。

这就像一个不懂化学的聪明人,如果给他一本详细的实验指南,他依然可能按照指南完成实验。

因此,SGTM不能单打独斗,它必须与输入过滤、输出监控等防御措施结合,构成多层纵深防御体系。

SGTM为双模型部署提供了一种极具吸引力的可能性。

由于该技术在训练阶段就已经实现了知识的物理分离,开发者可以仅通过一次训练,就同时获得两个版本的模型:

一个包含完整参数的未删减版,供经过授权的安全人员或科研机构使用;

另一个是经过参数切除的安全版,面向公众开放,这种一次训练、双重产出的模式,在算力成本高昂的今天,具有极高的经济价值和实用意义。

对于追求AGI安全的研究者而言,SGTM提供了一个重要的启示。

与其试图清洗那片浩瀚且混乱的互联网数据海洋,不如重塑模型的大脑结构,让危险知识在进入的那一刻起,就被关进了可以随时丢弃的笼子里。

参考资料:

https://alignment.anthropic.com/2025/selective-gradient-masking/

https://arxiv.org/pdf/2512.05648

https://github.com/safety-research/selective-gradient-masking

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/7 3:41:24

Windows远程桌面多用户连接终极指南:RDP Wrapper深度解析

在数字化办公时代,Windows远程桌面连接已成为技术爱好者和IT管理员的必备工具。然而,Windows家庭版的多用户远程连接限制始终是效率提升的瓶颈。RDP Wrapper作为创新的服务包装解决方案,通过智能适配技术为家庭版远程桌面提供了完美的多用户连…

作者头像 李华
网站建设 2026/2/6 4:17:51

输入法词库迁移终极指南:告别词库丢失烦恼

输入法词库迁移终极指南:告别词库丢失烦恼 【免费下载链接】imewlconverter ”深蓝词库转换“ 一款开源免费的输入法词库转换程序 项目地址: https://gitcode.com/gh_mirrors/im/imewlconverter 你是否曾经因为更换输入法而丢失了多年积累的个性化词库&#…

作者头像 李华
网站建设 2026/2/7 3:41:21

原神帧率解锁终极指南:突破60帧限制的完整解决方案

原神帧率解锁终极指南:突破60帧限制的完整解决方案 【免费下载链接】genshin-fps-unlock unlocks the 60 fps cap 项目地址: https://gitcode.com/gh_mirrors/ge/genshin-fps-unlock 还在为《原神》游戏画面卡顿而烦恼吗?genshin-fps-unlock项目为…

作者头像 李华
网站建设 2026/2/7 3:41:19

终极输入法词库转换指南:轻松实现跨平台词库迁移

终极输入法词库转换指南:轻松实现跨平台词库迁移 【免费下载链接】imewlconverter ”深蓝词库转换“ 一款开源免费的输入法词库转换程序 项目地址: https://gitcode.com/gh_mirrors/im/imewlconverter 还在为更换输入法时无法保留多年积累的个人词库而烦恼吗…

作者头像 李华
网站建设 2026/2/7 3:41:17

小红书下载终极指南:3分钟搞定无水印批量下载

你是否曾经在小红书上看到喜欢的图片或视频,却因为平台限制无法轻松保存?🤔 手动一张张保存不仅耗时耗力,还经常遇到水印问题?别担心,今天我们要为你揭秘一个简单高效的小红书下载解决方案!根据…

作者头像 李华
网站建设 2026/2/6 23:05:01

原神帧率解锁:从60帧到144帧的完美进化指南

你是否在提瓦特大陆冒险时,总觉得画面不够丝滑流畅?明明拥有高刷新率显示器,却被游戏锁在60帧的牢笼中?我们一起来探索如何通过genshin-fps-unlocker实现帧率自由,让原神体验真正起飞! 【免费下载链接】gen…

作者头像 李华