简介
本文整理了来自Daily Dose of Data Science最热门或最新的文章,其中极具特色的动图以生动形象的方式,帮助我们更好的理解AI中的一些核心技术,希望能够帮助大家更好的理解和使用AI。
大模型
Transformer vs. Mixture of Experts
混合专家 (MoE) 是一种流行的架构,它使用不同的“专家”来改进 Transformer 模型。
下图解释了它们与 Transformers 的区别。
Transformer 使用前馈网络。
MoE 使用专家,它们是前馈网络,但与 Transformer 中的网络相比规模较小。在推理过程中,会选择一部分专家。这使得 MoE 中的推理速度更快。
Fine-tuning LLMs
传统的微调(如下图所示)对于 LLM 来说是不可行的,因为这些模型具有数十亿个参数并且大小为数百 GB,并且并非每个人都可以使用这样的计算基础设施。
值得庆幸的是,今天我们有许多最佳方法来微调 LLM,下面描述了五种流行的技术:
LoRA :添加两个低秩矩阵 A ,以及 B包含可训练参数的权重矩阵。无需进行微调W,只需调整这些低秩矩阵中的更新即可。
LoRA-FA :虽然 LoRA 显著减少了可训练参数的总量,但它仍然需要大量的激活记忆来更新低秩权重。LoRA-FA(FA 代表 Frozen-A)会冻结矩阵,A并且仅更新矩阵B。
VeRA :在 LoRA 中,每一层都有一对不同的低秩矩阵A和B,并且这两个矩阵都经过训练。然而,在 VeRA 中,矩阵A和B是冻结的、随机的,并在所有模型层之间共享。VeRA 专注于学习较小的、特定于层的缩放向量,记为b和d,它们是此设置中唯一可训练的参数。
Delta-LoRA :除了训练低秩矩阵之外,W还会对矩阵进行调整,但不是以传统方式。相反,将两个连续训练步骤中低秩矩阵乘积与之间的差值(或增量)A添加B到W。
LoRA+ :在 LoRA 中,矩阵A和B都以相同的学习率更新。作者发现,为矩阵设置更高的学习率B可以获得更优的收敛效果。
RAG(检索增强生成)
传统RAG
传统RAG系统存在以下一些问题:
这些系统检索一次,生成一次。这意味着如果检索到的上下文不够,LLM就无法动态搜索更多信息。
RAG 系统可以提供相关的上下文,但无法通过复杂的查询进行推理。如果查询需要多个检索步骤,传统的 RAG 就显得力不从心了。
适应性较差。LLM 无法根据实际问题调整策略。
Agentic RAG
Agentic RAG 的工作流程如下:
如上所示,我们的想法是在 RAG 的每个阶段引入代理行为。
我们可以把智能体想象成能够主动思考任务的人——规划、调整、迭代,直到找到最佳解决方案,而不仅仅是遵循既定的指令。LLM 的强大功能使这一切成为可能。
让我们逐步理解这一点:
步骤 1-2)用户输入查询,代理重写它(删除拼写错误,简化嵌入等)
步骤 3)另一个代理决定是否需要更多细节来回答查询。
步骤4)如果不是,则将重写的查询作为提示发送给LLM。
步骤 5-8) 如果答案是肯定的,另一个代理会查看其可以访问的相关资源(矢量数据库、工具和 API 以及互联网),并决定哪个资源有用。检索相关上下文并将其作为提示发送给 LLM。
步骤9)以上两条路径中的任意一条都会产生响应。
步骤 10)最后一个代理检查答案是否与查询和上下文相关。
步骤11)如果是,则返回响应。
步骤 12)如果不是,则返回步骤 1。此过程持续几次迭代,直到系统承认它无法回答查询。
这使得 RAG 更加稳健,因为在每一步中,代理行为都能确保个体结果与最终目标保持一致。
Corrective RAG
Corrective RAG(CRAG)是改进 RAG 系统的常用技术。它引入了对检索到的文档进行自我评估的步骤,有助于保留生成的响应的相关性。
以下是其工作原理的概述:
首先根据用户查询搜索文档。
使用 LLM 评估检索到的上下文是否相关。
仅保留相关上下文。
如果需要的话,进行网络搜索。
聚合上下文并生成响应。
RAG 的 5 种分块策略
智能体
5种智能体设计模式
Agentic behaviors允许 LLM 通过结合自我评估、规划和协作来改进他们的输出!
下图展示了构建 AI 代理时采用的 5 种最流行的设计模式。
反射模式
LLM会审查其工作以发现错误并不断迭代直到产生最终的响应。
工具使用模式
工具允许 LLM 通过以下方式收集更多信息:
查询矢量数据库
执行 Python 脚本
调用API等
这很有帮助,因为 LLM 不仅仅依赖于其内部知识。
ReAct(Reason and Action)模式
ReAct 结合了以上两种模式:
代理可以反映生成的输出。
它可以使用工具与世界互动。
这使得它成为当今使用最强大的模式之一。
规划模式
AI 不会一次性解决请求,而是通过以下方式创建路线图:
细分任务
概述目标
这种战略思维可以更有效地解决任务。
Multi-agent模式
在此设置中:
我们有几个agent。
每个agent都被分配了专门的角色和任务。
每个agent还可以访问工具。
所有agent共同努力以交付最终结果,同时在需要时将任务委派给其他agent。
智能体系统的5个等级
Agentic AI 系统不仅仅生成文本;它们还可以做出决策、调用函数,甚至运行自主工作流程。
该图解释了人工智能代理的 5 个级别——从简单的响应者到完全自主的代理。
基本响应器仅生成文本
路由器模式决定何时采取路径
工具调用选择并运行工具
多代理模式管理多个代理
自主模式完全独立运作
MCP
Function calling & MCP
在 MCP 成为主流(或像现在这样流行)之前,大多数 AI 工作流程依赖于传统的函数调用。
现在,MCP(模型上下文协议)正在改变开发人员为代理构建工具访问和编排的方式。
以下是解释函数调用和 MCP 的视觉说明:
Function calling(函数调用)
函数调用是一种机制,它允许 LLM 根据用户的输入识别它需要什么工具以及何时调用它。
它通常的工作方式如下:
LLM 收到来自用户的提示。
LLM 决定其所需的工具。
程序员实现程序来接受来自 LLM 的工具调用请求并准备函数调用。
函数调用(带有参数)被传递给处理实际执行的后端服务。
MCP(模型上下文协议)
函数调用关注的是模型想要做什么,而 MCP 关注的是如何让工具变得可发现和可用——尤其是跨多个代理、模型或平台。
MCP 无需在每个应用程序或代理中都安装硬接线工具,而是:
标准化工具的定义、托管和向 LLM 公开的方式。
使 LLM 能够轻松发现可用的工具、了解其模式并使用它们。
在调用工具之前提供批准和审计工作流程。
将工具实施与消费的关注点分开。
MCP & A2A
Agent2Agent (A2A) 协议让 AI 代理可以连接到其他代理。
MCP 为代理提供访问工具的权限。
而 A2A 允许代理与其他代理连接并以团队形式协作。
Next thing
在代理领域:
MCP 标准化了代理到工具的通信。
Agent2Agent 协议标准化了 Agent 到 Agent 的通信。
但还缺少一件东西……
AG-UI(代理-用户交互协议)标准化了后端代理和前端 UI 之间的交互层(下图绿色层)。
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?
别再浪费时间啦!2025 年AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇
一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI:
1. 100+本大模型方向电子书
2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:
- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:
- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!
1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:
2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:
3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:
![]()
三、路线必明:AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!
路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
L5阶段:专题集丨特训篇 【录播课】
![]()
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇
2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!