news 2026/5/6 18:50:31

【收藏必备】DeepSeek到Mistral:一文看懂顶级大模型架构演进与创新

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【收藏必备】DeepSeek到Mistral:一文看懂顶级大模型架构演进与创新

文章详细分析了从DeepSeek V3到Mistral 3等顶级大模型的架构创新,包括多头潜在注意力(MLA)、混合专家(MoE)、滑动窗口注意力、归一化层位置优化等关键技术。2025年大模型架构呈现五大趋势:MoE成为主流、注意力机制多样化、归一化层位置优化、混合架构兴起、效率优先。这些创新虽看似渐进,但正推动LLM向更高效、更强大的方向发展。

图1:本文涵盖的主要模型架构概览

今年是GPT架构诞生7周年。乍看之下,从GPT-2(2019)到DeepSeek V3和Llama 4(2024-2025),这些模型的结构似乎仍然非常相似。

但实际上,底层架构正在悄然进化。

一、DeepSeek V3/R1:两大效率革命

2025年1月发布的DeepSeek R1引发轰动,它基于DeepSeek V3架构。DeepSeek V3引入了两大提升计算效率的关键技术:

1.1 多头潜在注意力(MLA)

在理解MLA之前,先看看分组查询注意力(GQA)。GQA通过让多个注意力头共享同一组键值对来降低内存使用。

GQA的核心思想是通过共享减少键值头数量,从而降低参数量并减少KV缓存的内存占用。

MLA采用不同的策略:它将键值张量压缩到低维空间后再存入KV缓存,推理时再投影回原始维度。虽然MLA增加了一次矩阵乘法,但显著降低了内存使用。研究表明,MLA甚至比MHA的建模性能略好。

1.2 混合专家(MoE)

MoE的核心思想是用多个专家层替代单个前馈模块,每个专家层本身也是一个前馈模块。关键在于不需要激活所有专家。路由器只选择一小部分专家参与每个token的计算。

DeepSeek V3有256个专家,总共671B参数,但每次推理只激活9个专家(1个共享+8个路由选择),实际只用37B参数。

共享专家是DeepSeek的一大创新,它对每个token都激活,让其他专家更专注于学习专门模式。

二、OLMo 2:归一化层的艺术

OLMo系列以透明度著称,OLMo 2在发布时达到了计算性能的帕累托前沿。OLMo 2的架构亮点在于归一化层的位置调整。

2.1 归一化层位置

原始Transformer将归一化层放在注意力模块之后(Post-Norm),GPT等模型将其放在之前(Pre-Norm)。

OLMo 2采用了一种Post-Norm变体,将归一化层放在注意力模块之后,但仍保留在残差连接内。

2.2 QK-Norm

QK-Norm是在多头注意力模块内对查询和键应用额外的RMSNorm,在RoPE之前进行归一化。这进一步稳定了训练。

三、Gemma 3:滑动窗口注意力

Google的Gemma模型一直被低估。Gemma 3使用滑动窗口注意力来降低计算成本。

3.1 什么是滑动窗口注意力?

传统自注意力是全局的,每个token可以访问所有其他token。滑动窗口注意力是局部的,限制当前查询位置的上下文范围。

Gemma 3将全局和局部注意力的比例从Gemma 2的1:1调整为5:1,滑动窗口大小也从4096缩小到1024。实验表明滑动窗口注意力对模型性能影响很小。

3.2 双重归一化

Gemma 3在分组查询注意力模块周围同时使用了Pre-Norm和Post-Norm,这与其他模型都不同。这种设计结合了Pre-Norm和Post-Norm的优点,是一种相对直观的方法。

四、Llama 4:规模升级

Llama 4是Llama 3的直接升级版,主要变化在于规模扩大和GQA的使用。

Llama 4从405B扩展到1T参数,使用了分组查询注意力,同时保留了QK-Norm。

五、Qwen3:MoE与线性注意力的融合

Qwen系列推出多个模型,其中Qwen3 235B-A22B是MoE版本。

Qwen3还推出了Qwen3-Next,将部分注意力层替换为线性注意力变体,以提高长文本处理的效率。

Qwen3-Next采用3:1比例,每3个使用线性注意力的层就有1个使用完整注意力。

六、SmolLM3:小而美

SmolLM系列专注于小型模型。SmolLM3的最大特点是使用了多Token预测(MTP)。

传统LLM一次预测1个token,MTP同时预测多个token,大大提高了推理速度。

七、其他创新架构

7.1 MiniMax-M2:分层QK-Norm

MiniMax-M2与Qwen3非常相似,但使用了"每层"QK-Norm,每个注意力头都有独立的归一化参数。

7.2 线性注意力的复兴

传统注意力机制的复杂度是O(n²),线性注意力将其降低到O(n),适合处理长文本。

2025年下半年,线性注意力迎来复兴,多个模型采用混合策略。

7.3 Kimi Linear:混合注意力策略

Kimi Linear与Qwen3-Next类似,都使用3:1的混合策略。

Kimi Linear在完整注意力层使用了MLA,进一步提升了效率。

7.4 Olmo 3:透明度典范

Olmo 3延续了透明度传统,共享详细训练报告和数据。

Olmo 3延续了Olmo 2的Post-Norm设计,并加入了滑动窗口注意力。

7.5 DeepSeek V3.2:稀疏注意力

DeepSeek V3.2在V3基础上加入了稀疏注意力机制。

7.6 Mistral 3:复制成功

Mistral 3 Large(675B)几乎完全复制了DeepSeek V3的架构,只是调整了专家大小比例。

在基准测试中,Mistral 3 Large与DeepSeek V3.1不相上下。

7.7 Nemotron 3:Transformer-Mamba混合

NVIDIA的Nemotron 3采用MoE Mamba-Transformer混合架构。Nemotron 3在保持相似规模的同时实现了更高的吞吐量。

7.8 小米MiMo-V2-Flash:极致滑动窗口

小米的MiMo-V2-Flash使用了更激进的滑动窗口策略,窗口大小只有128,是Gemma 3的1/8。

这是迄今为止最大的滑动窗口注意力模型,性能匹敌DeepSeek V3.2,但参数量只有一半,推理速度更快。

总结:2025年的架构趋势

  1. MoE成为主流 - DeepSeek V3、Qwen3、Mistral 3等大型模型都采用MoE架构

  2. 注意力机制多样化 - MLA、GQA、滑动窗口注意力、线性注意力等各有优势

  3. 归一化层位置优化 - Post-Norm、Pre-Norm、双重归一化等不同方案

  4. 混合架构兴起- Transformer-Mamba混合、线性注意力与完整注意力混合

  5. 效率优先 - 所有创新都围绕提升计算效率和内存使用展开

这些架构创新虽然看似渐进,但累积起来正推动LLM向更高效、更强大的方向发展。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 9:41:29

SimulinkLCL型三相桥式逆变器(设计源文件+万字报告+讲解)(支持资料、图片参考_相关定制)_文章底部可以扫码

SimulinkLCL型三相桥式逆变器(设计源文件万字报告讲解)(支持资料、图片参考_相关定制)_文章底部可以扫码附报告。采用小信号建模和阻抗分析法,研究其动态特性。通过电流环解耦控制,消除各相电流耦合,并推导控制框图。包…

作者头像 李华
网站建设 2026/5/6 11:47:16

Qi2认证对无线充电行业的发展有哪些具体影响?

Qi2 认证以统一标准、磁吸定位与高功率安全架构重塑无线充电行业,从市场秩序、技术方向、生态协同到产业链分工均产生深度影响,推动行业从 “兼容混乱” 走向 “规范高效”,加速高功率、多场景无线充电的普及。以下从多维度展开具体影响说明&…

作者头像 李华
网站建设 2026/5/1 7:32:27

Java程序员必修课:提升系统性能!

性能优化可以说是我们程序员的必修课,如果你想要跳出CRUD的苦海,成为一个更“高级”的程序员的话,性能优化这一关你是无论无何都要去面对的。为了提升系统性能,开发人员可以从系统的各个角度和层次对系统进行优化。除了最常见的代…

作者头像 李华
网站建设 2026/5/5 5:20:34

Java招聘要求是从什么时候开始拔高的?

近两年,“大厂裁员”总是凭实力冲上各大媒体头条,身在局中的我们早已习以为常。国内的京东,阿里,腾讯,字节,快手,小米等互联网公司都以不同程度的裁员比例向社会输送人才。大量有大厂经验的卷王…

作者头像 李华
网站建设 2026/4/30 14:14:34

RAG 入门与深度实践:从理解到落地

RAG 入门与深度实践:从理解到落地 前言 近年来,人工智能领域发展迅猛,特别是在自然语言处理(NLP)方面,资源增强生成(Retrieval-Augmented Generation,简称 RAG)逐渐成为了…

作者头像 李华