news 2026/3/30 3:36:29

【干货收藏】从零开始:将你的LLM武装成超级助理的四大关键技术

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【干货收藏】从零开始:将你的LLM武装成超级助理的四大关键技术

引入

将你的LLM从“读死书的书呆子”武装成“超级助理”

从22年底ChatGPT的爆火,到今年年初国产大语言模型DeepSeekv3的频繁刷屏,我们看到了大语言模型(LLM)那令人惊叹的能力:写诗、编程、答疑仿佛无所不能,无所不知。其高度自然的人机交互界面,容易让我们感觉像是在与一位“全知全能”的对话者交流。然而,揭开这层表象,LLM的核心本质是一个基于海量数据训练的“下一个词元概率预测模型”。

他的核心任务非常简单:就是根据上下文(即你的问题)从数十亿的参数中,计算出下一个最可能出现的词元是什么。如此不断反复最终生成一个长文本。

当然如果仅仅是一个简单的下一个词元的概率预测模型,LLM也不会像现在这样火热。关键在于,凭借其庞大的参数规模与训练数据量,LLM显现了“涌现能力”(Emergent Abilities)也就是我们的俗语书读百遍,其意自现——这意味着当模型规模超过某个临界点时,它会展现出诸如复杂推理、逻辑分析、任务规划等并未在训练中被明确指定的新能力。

因此,LLM的能力呈现出一种二元性:

  • 它是“白痴”,从概率模型上讲,他有三个局限:
  • 知识滞后:他的知识永远停留在训练截止日,他无法获得在那以后的信息。
  • 知识幻觉:由于本质是概率模型,他总能选到概率很高的词,也即一本正经的胡说八道。
  • 行动无能:他无法和现实世界产生交互。
  • 但另一方面,它是“天才”,“涌现”让他拥有了
  • 卓越的推理与分解能力:能够理解复杂问题并将其分解为可处理的子任务。
  • 强大的规划能力:可以规划多步骤任务的执行路径。

正是为了克服LLM的固有局限,同时充分利用其强大的推理和规划能力,Prompt工程、检索增强生成(RAG)、函数调用(Function Calling)和模型上下文协议(MCP)等技术应运而生。它们共同协作,构成了当今火热无比的AI Agent(智能代理)

如下图所示:

我们可以将AI Agent想象为一个高效的超级助理

  • LLM是助理的“大脑”,负责核心的思考、推理与决策
  • Prompt是清晰的“指令”,明确告知助理需要完成的任务和目标
  • RAG是助理的“动态知识库”,使其能够访问和利用最新、专有的信息,减少幻觉
  • Function Calling是助理的“手脚”,允许它调用各种函数和工具来执行具体操作
  • MCP则是连接大脑与手脚的“神经系统”,为工具调用提供标准化、可互操作的协议,确保协作流畅

接下来,我们将初步了解Prompt、RAG、Function Calling和MCP这四大关键技术,看看他们是如何工作的,在下一篇文章中,我将以一个我参加比赛的实际系统为例,带你看看它们如何协同工作,将一个简单的LLM武装成一个“数据超级助理”。

一、Prompt(提示词)


一切交互的基石

1定义

prompt(提示词)不是一种具体的技术,是我们和LLM沟通的控制语言。他的构成就是指令式的语言,这是整个Agent中的一个核心,我们所有功能的实现都是基于一个我们精心设计好的提示词。

2核心作用

提示词的核心作用就玩一场cosplay。我们要精确的告诉模型“你是谁(角色)”、“你要做什么(任务)”、“依照什么样的规则(约束)”、“参考什么信息(上下文,非必须)”,以及示例(非必须)。

LLM模型接受的训练数据是多种多样的,所以在回答时他的答案边界就会很模糊,Prompt的作用就是给模型画个圈,让他的答案限制在这个圈内。

3演示

接下来让我们做一个简单的演示,我们让模型来写一个关于狗的故事。

「模型一」

写一个300字左右的关于狗的故事;

「模型二」

你是一位小说家,你现在要用欧亨利的风格写一个300字左右的关于狗的故事。

我们用腾讯元宝中的DeepSeek,开启深度思考,会有如下的结果:

「模型一」 vs 「模型二」

可以看出,两篇故事还是有很大的区别的。后一篇明显可以看出欧亨利的意料之外情理之中的结尾。

4如何写好一个提示词

那么我们应该如何写好一个提示词呢?

  • C - 清晰具体 (Clear & Specific):避免使用模糊、笼统的词语。
  • L - 提供背景 (Lay out Context):给出足够的上下文信息,帮助 AI 理解任务的背景和目的。
  • E - 明确目标 (Explicit Goal):清晰地说明你想要 AI 完成什么任务,以及最终成果的用途。
  • A - 指定格式 (Assign a Format):规定输出的格式、风格、语气和长度。

在实践中,我们可以用上面的基本原则加我们下面的基本公式来生成你的提示词:

角色 + 任务 + 背景 + 要求 + 格式/范例

💡 小Tips:

在面对复杂的任务时,可以尝试把它拆分成多个小步骤,一步一步引导AI完成

巧用思维链,在处理设计推理和逻辑的问题的时候让AI一步步思考,或者展示他的思考过程,这样会使得最终的输出更加严谨,准确。

不要想着一蹴而就,一个好的提示词是需要不断迭代更新的,先从简单的开始,然后给他添加正面和负面的例子,再把例子抽象成新的指令,一步一步完善你的提示词。

二、两大核心外挂


为LLM赋予“新知识”和“真行动”

RAG———解决知识滞后和幻觉

1定义

RAG(Retrieval-Augmented Generation,检索增强生成):是一种将信息检索和LLM结合的技术框架,让LLM在回答问题前,先从外部知识库(内部数据库、PDF)获取相关信息然后将查询到的信息注入到Prompt中,利用LLM的总结能力来回答问题。

如图所示,RAG的调用流程共包含5个步骤

  1. 用户提问
  2. 检索器将用户的问题转化成向量
  3. 知识库根据查询算法,从向量数据库中搜索出最相关的几个知识片段
  4. 将这些知识片段填入到提前编辑好的提示词中
  5. LLM根据提示词以及相关的知识片段利用自己的推理能力生成对用户提问的回答

2Demo演示

(1) 环境准备

① 先安装必要的库

pip install openai scikit-learn python-dotenv

② 在项目文件夹中创建一个.env的文件,填入你的LLM API

这里使用硅基流动的API,有免费的模型可以使用:Qwen/Qwen3-8B

这是我的邀请链接大家需要的话可以点一点,硅基流动现在学生注册免费送50元额度:

https://cloud.siliconflow.cn/i/elkOMWfK

API_KEY的生成方式为:登录硅基流动,在左边点击API密钥,点击新建密钥,粘贴到SILICONFLOW_API_KEY中就可以。

# SiliconFlow 的 API 地址 export SILICONFLOW_BASE_URL="<https://api.siliconflow.cn/v1>"# 您在 SiliconFlow 平台获取的 API Keyexport SILICONFLOW_API_KEY="sk-..."

③ 简单的RAG代码

(2) 解决的问题

① LLM的知识时效性

我们通过外挂的知识库可以补充模型训练好以后的数据或者不可公开的隐私数据。

② 信息的可追溯性

模型回答依靠的信息是我们搜索后提供的,我们可以通过提示词让模型显示出来源。

③ 私有数据的利用

无法公开的私有数据可以通过本地部署LLM+RAG来构建知识问答系统。

(3)存在的问题

① 数据切片的策略

我们存入向量库的数据是要经过分割的,我们不能把一份文档整个送入,而文档是有上下文依赖的,粗暴的分割会把原本完整意思的话切分开导致意思改变;用标点符号分割又会导致长短不一,处理困难。

② 数据的预处理

文档是有很强的上下文信息的,这些信息需要经过预处理后才能正常的使用。

「例如」

在一篇写小明的文章中,对小明的称呼除了小明还有他这个代词,在预处理的时候我们需要把他替换成小明。否则在后续的使用中我们问这篇文章一共提到过几次小明,模型只能回答出称呼名字的次数。

③ 检索的质量

RAG系统的回答质量取决于其检索到的文档的质量,而检索的策略和参数又非常多,如何调出一份适合整个系统的方剂是一个很难的问题。

④ LLM上下长度的限制

LLM的上下文长度有限制,我们要尽可能简短的为模型提供信息,但当搜索匹配到大量信息时,如何压缩保证不超过LLM的上下文长度限制。

⑤ 如何平衡已有知识和检索到的知识权重

当检索到的知识和模型训练知识冲突时,我们需要决定让模型选择相信哪种,要注意我们的文档不是一定正确的。

Function Calling———给模型提供行动能力

1定义

Function Calling (函数调用) 让LLM能够调用外部的API或代码机制。这是模型与现实世界互动的“双手”。LLM 负责“决定调用哪个函数”,而外部程序负责“真正执行”。

  1. 系统开始前开发人员需要将要使用的函数的文档编写送入Prompt组合器中。
  2. 我们需要提前编写好Prompt,在里面需要告诉模型我们有哪些函数,他以什么样的形式向我们传递参数。
  3. 用户提问后,模型通过查看函数文档以及推理思考决定调用哪个函数,传递什么参数。
  4. 函数服务器接受到模型的回复后,按照约定解析函数参数,发起函数调用。
  5. 完成调用后将数据按照约定格式返回给模型。
  6. 模型收到返回值后再次进行推理思考形成自然语言回答用户的问题。

2Demo演示

3解决的问题

  • 可以执行现实世界的动作
  • 获取实时的数据
  • 完成精确的计算

4存在的问题

(1) 依赖模型的基础能力

当模型的能力较低时,很难从一堆函数中选择出正确的函数并给出这个函数正确的参数格式。

(2)复杂函数调用的挑战

对于需要分解成多步骤的函数调用,模型很可能陷入思维倦怠,即处理到中间步骤突然停止了。

(3)安全性和可靠性

对于如删除邮件、修改信息等操作不能随意交给模型进行处理,很容易误删或者误修改。

(4)开发与调试的复杂度

对于长调用链路需要追踪每一个节点的参数以及思维链

三、Agent(智能体)


拥有“自主意识”的规划者

1定义

如果RAG和Function Calling是“工具”,那么Agent就是那个总指挥。Agent不是一个单一的技术,而是一套架构的范式,其核心就是利用LLM强大的推理能力来自主规划、分解任务并决定调用哪个工具。

2核心逻辑(ReAct范式)

ReAct范式模拟了人类解决问题的方式:

  • 遇到问题先动脑想想(Thought)
  • 想好了动手去做(Action)
  • 做完了观察结果如何(Observation)
  • 根据观察的结果决定下一步怎么想,怎么做

也即形成一个如下图的循环。

3Demo

4存在的问题

  • 过长的思维链可能会陷入死循环或偏离目标
  • 交互式调用LLM成本很高并且也会导致导致延迟高
  • 排查问题困难
  • 上下文容易超限

四、一个协议


MCP为Agent提供标准的通信

1定义

MCP(Model Context Protocol,模型上下文协议)约定了AI应用如何规范地集成外部工具,实现为大模型补充上下文的目的,其本质是一个应用层协议。

2出现原因

Function Calling 为我们提供了调用能力,但没有一个统一规范的标准,会导致不同人开发出来的Function 有不同的传输标准,此时如果去做接入,就会有大量无意义的工作产生。同时,MCP还为我们提供了生成标准化函数Prompt的工作,我们只需要把函数文档注释写好,其就可以生成供大模型使用的提示词。

MCP中主要有三个角色,主机、服务端、客户端

  • **主机端:**主要负责用户与大模型的直接交互,同时又负责协调外部资源进行调度。
  • **服务端:**主要负责对接外部数据或服务,并通过标准的数据格式将相应的内容发送给MCP客户端。
  • **客户端:**直接寄生在MCP主机中,由主机创建并进行调度,客户端和服务端连接,并进行数据传输。

TIPS

MCP时客户端与服务端的协议,实际上并不涉及LLM的交互。主要解决的问题是自动进行函数文档的注入,管理各个客户端的状态,以及客户端和服务端的交互形式。

3Demo

(1)环境准备

pip install mcp

(2)服务端代码

(3)客户端代码

五、总结


本篇文章我们从一个虽然有缺陷但推理能力超强的基本LLM出发,用Prompt与之沟通,用RAG作为他的外置大脑,用Function Calling为其赋予行动能力,并通过 Agent 架构使用 LLM 最强的推理能力来指挥这一切。我们还探讨了 MCP 协议如何为这套复杂的系统提供标准的通信规范。构建出了一个强大的工作流。

但是纸上得来终觉浅,只有在实战中我们才能切身体会到上面提到的问题,才能想出如何优雅处理这些工具问题的方案。

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01教学内容

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

vx扫描下方二维码即可

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:

04视频和书籍PDF合集

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)

05行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!

0690+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)

07 deepseek部署包+技巧大全

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/26 9:28:58

2026爆火6款AI论文工具:一键生成初稿,写论文从未如此简单!

前言&#xff1a;2026毕业季倒计时&#xff0c;你的论文还在“难产”吗&#xff1f; 凌晨3点的图书馆、导师第8次打回的修改意见、查重率40%的红色警告、离截止日只剩72小时却连初稿框架都没搭好…… 如果你正被这些“论文噩梦”缠上&#xff0c;那这篇文章就是你的24小时急救…

作者头像 李华
网站建设 2026/3/26 12:06:30

netsh.exe文件损坏丢失找不到 打不开 下载方法分享

在使用电脑系统时经常会出现丢失找不到某些文件的情况&#xff0c;由于很多常用软件都是采用 Microsoft Visual Studio 编写的&#xff0c;所以这类软件的运行需要依赖微软Visual C运行库&#xff0c;比如像 QQ、迅雷、Adobe 软件等等&#xff0c;如果没有安装VC运行库或者安装…

作者头像 李华
网站建设 2026/3/29 1:08:31

全网最全专科生必备AI论文软件TOP8:开题报告文献综述神器测评

全网最全专科生必备AI论文软件TOP8&#xff1a;开题报告文献综述神器测评 2026年专科生必备AI论文软件测评&#xff1a;为何值得一看&#xff1f; 在当前学术写作日益智能化的背景下&#xff0c;专科生群体面临着开题报告、文献综述等环节的重重挑战。传统的写作方式不仅效率低…

作者头像 李华
网站建设 2026/3/27 17:51:16

测风激光雷达数据采集解决方案

测风激光雷达是一种基于光学脉冲相干探测技术的高精度风场监测设备&#xff0c;通过分析大气中气溶胶粒子对激光产生的多普勒频移效应&#xff0c;实现三维风场的实时探测。该系统具备"测得快、测得准、测得精、测得远"的显著特点&#xff0c;在气象监测、大气污染物…

作者头像 李华
网站建设 2026/3/27 16:37:16

美国抓捕委内瑞拉总统马杜罗对全球经济的影响

当前全球金融市场(尤其是黄金、白银等贵金属)的显著上涨,确实主要由美国抓捕委内瑞拉总统马杜罗这一地缘政治“黑天鹅”事件所驱动的避险需求所致。但其对世界经济的影响远不止于短期资产价格波动,更深层次地体现在能源格局重构、供应链安全焦虑、国际规则弱化与资本流向重…

作者头像 李华
网站建设 2026/3/28 21:09:25

STM32的USART通信

发送接收实现方式阻塞模式——HAL_UART_Receive()CPU 会进入一个 while 循环&#xff0c;不断检查状态寄存器&#xff08;ISR&#xff09;中的 RXNE&#xff08;Receive Data register Not Empty&#xff09;标志位&#xff0c;直到收到数据。中断模式——HAL_UART_Receive_IT(…

作者头像 李华