文章详细分析了从DeepSeek V3到Mistral 3等顶级大模型的架构创新,包括多头潜在注意力(MLA)、混合专家(MoE)、滑动窗口注意力、归一化层位置优化等关键技术。2025年大模型架构呈现五大趋势:MoE成为主流、注意力机制多样化、归一化层位置优化、混合架构兴起、效率优先。这些创新虽看似渐进,但正推动LLM向更高效、更强大的方向发展。
图1:本文涵盖的主要模型架构概览
今年是GPT架构诞生7周年。乍看之下,从GPT-2(2019)到DeepSeek V3和Llama 4(2024-2025),这些模型的结构似乎仍然非常相似。
但实际上,底层架构正在悄然进化。
一、DeepSeek V3/R1:两大效率革命
2025年1月发布的DeepSeek R1引发轰动,它基于DeepSeek V3架构。DeepSeek V3引入了两大提升计算效率的关键技术:
1.1 多头潜在注意力(MLA)
在理解MLA之前,先看看分组查询注意力(GQA)。GQA通过让多个注意力头共享同一组键值对来降低内存使用。
GQA的核心思想是通过共享减少键值头数量,从而降低参数量并减少KV缓存的内存占用。
MLA采用不同的策略:它将键值张量压缩到低维空间后再存入KV缓存,推理时再投影回原始维度。虽然MLA增加了一次矩阵乘法,但显著降低了内存使用。研究表明,MLA甚至比MHA的建模性能略好。
1.2 混合专家(MoE)
MoE的核心思想是用多个专家层替代单个前馈模块,每个专家层本身也是一个前馈模块。关键在于不需要激活所有专家。路由器只选择一小部分专家参与每个token的计算。
DeepSeek V3有256个专家,总共671B参数,但每次推理只激活9个专家(1个共享+8个路由选择),实际只用37B参数。
共享专家是DeepSeek的一大创新,它对每个token都激活,让其他专家更专注于学习专门模式。
二、OLMo 2:归一化层的艺术
OLMo系列以透明度著称,OLMo 2在发布时达到了计算性能的帕累托前沿。OLMo 2的架构亮点在于归一化层的位置调整。
2.1 归一化层位置
原始Transformer将归一化层放在注意力模块之后(Post-Norm),GPT等模型将其放在之前(Pre-Norm)。
OLMo 2采用了一种Post-Norm变体,将归一化层放在注意力模块之后,但仍保留在残差连接内。
2.2 QK-Norm
QK-Norm是在多头注意力模块内对查询和键应用额外的RMSNorm,在RoPE之前进行归一化。这进一步稳定了训练。
三、Gemma 3:滑动窗口注意力
Google的Gemma模型一直被低估。Gemma 3使用滑动窗口注意力来降低计算成本。
3.1 什么是滑动窗口注意力?
传统自注意力是全局的,每个token可以访问所有其他token。滑动窗口注意力是局部的,限制当前查询位置的上下文范围。
Gemma 3将全局和局部注意力的比例从Gemma 2的1:1调整为5:1,滑动窗口大小也从4096缩小到1024。实验表明滑动窗口注意力对模型性能影响很小。
3.2 双重归一化
Gemma 3在分组查询注意力模块周围同时使用了Pre-Norm和Post-Norm,这与其他模型都不同。这种设计结合了Pre-Norm和Post-Norm的优点,是一种相对直观的方法。
四、Llama 4:规模升级
Llama 4是Llama 3的直接升级版,主要变化在于规模扩大和GQA的使用。
Llama 4从405B扩展到1T参数,使用了分组查询注意力,同时保留了QK-Norm。
五、Qwen3:MoE与线性注意力的融合
Qwen系列推出多个模型,其中Qwen3 235B-A22B是MoE版本。
Qwen3还推出了Qwen3-Next,将部分注意力层替换为线性注意力变体,以提高长文本处理的效率。
Qwen3-Next采用3:1比例,每3个使用线性注意力的层就有1个使用完整注意力。
六、SmolLM3:小而美
SmolLM系列专注于小型模型。SmolLM3的最大特点是使用了多Token预测(MTP)。
传统LLM一次预测1个token,MTP同时预测多个token,大大提高了推理速度。
七、其他创新架构
7.1 MiniMax-M2:分层QK-Norm
MiniMax-M2与Qwen3非常相似,但使用了"每层"QK-Norm,每个注意力头都有独立的归一化参数。
7.2 线性注意力的复兴
传统注意力机制的复杂度是O(n²),线性注意力将其降低到O(n),适合处理长文本。
2025年下半年,线性注意力迎来复兴,多个模型采用混合策略。
7.3 Kimi Linear:混合注意力策略
Kimi Linear与Qwen3-Next类似,都使用3:1的混合策略。
Kimi Linear在完整注意力层使用了MLA,进一步提升了效率。
7.4 Olmo 3:透明度典范
Olmo 3延续了透明度传统,共享详细训练报告和数据。
Olmo 3延续了Olmo 2的Post-Norm设计,并加入了滑动窗口注意力。
7.5 DeepSeek V3.2:稀疏注意力
DeepSeek V3.2在V3基础上加入了稀疏注意力机制。
7.6 Mistral 3:复制成功
Mistral 3 Large(675B)几乎完全复制了DeepSeek V3的架构,只是调整了专家大小比例。
在基准测试中,Mistral 3 Large与DeepSeek V3.1不相上下。
7.7 Nemotron 3:Transformer-Mamba混合
NVIDIA的Nemotron 3采用MoE Mamba-Transformer混合架构。Nemotron 3在保持相似规模的同时实现了更高的吞吐量。
7.8 小米MiMo-V2-Flash:极致滑动窗口
小米的MiMo-V2-Flash使用了更激进的滑动窗口策略,窗口大小只有128,是Gemma 3的1/8。
这是迄今为止最大的滑动窗口注意力模型,性能匹敌DeepSeek V3.2,但参数量只有一半,推理速度更快。
总结:2025年的架构趋势
MoE成为主流 - DeepSeek V3、Qwen3、Mistral 3等大型模型都采用MoE架构
注意力机制多样化 - MLA、GQA、滑动窗口注意力、线性注意力等各有优势
归一化层位置优化 - Post-Norm、Pre-Norm、双重归一化等不同方案
混合架构兴起- Transformer-Mamba混合、线性注意力与完整注意力混合
效率优先 - 所有创新都围绕提升计算效率和内存使用展开
这些架构创新虽然看似渐进,但累积起来正推动LLM向更高效、更强大的方向发展。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2025 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》,下方扫码获取~
① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
以上资料如何领取?
为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!
不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。