news 2026/2/24 20:34:17

【深度收藏】构建高效AI Agent:提示词、工作流与知识库三大核心技术详解

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【深度收藏】构建高效AI Agent:提示词、工作流与知识库三大核心技术详解

在Agentic AI快速发展背景下,构建可靠高效的AI Agent应用需聚焦三大核心竞争力:提示词工程(系统提示词构建与输出优化)、工作流设计(使用DSL如Mermaid替代自然语言)和知识库构建(RAG技术与关系型数据库结合)。文章从架构定义到实际落地提供了完整方法论,同时提醒注意提示词注入等安全问题,并建议采用"Ready, Fire, Aim"快速迭代方式确定AI项目价值。


本文系统阐述了在当前 Agentic AI 技术快速发展的背景下,如何构建一个可靠、高效且可落地的 AI Agent 应用。随着 LLM 和工具调用的标准化,开发的核心竞争力已转向 提示词工程(Prompt Engineering)、工作流设计(Workflow)和知识库构建(RAG) 三大领域。

一、Agent核心架构定义

Agent系统由五个关键组件构成:

  • 大语言模型(LLM)
  • 提示词(Prompt)
  • 工作流(Workflow)
  • 知识库(RAG)
  • 工具(Tools)

LLM和工具调用已经形成了相对标准化的技术栈。LLM方面,无论选择云端大模型(如阿里百炼平台、IdeaLab)还是本地部署(如Ollama),都有成熟的解决方案;工具调用方面,MCP协议的普及让工具集成变成了配置问题而非开发问题。因此,业务开发的核心竞争力在于提示词 + 工作流 + 知识库上。

二、Prompt工程:给AI写"需求文档"

提示词分为系统提示词和用户提示词,用户提示词就是我们的问题。系统提示词,是agent的背景/角色,设置了agent需要完成什么类型的任务。系统提示词主要包括:身份(Role)+ 上下文(Context)+ 例子(Examples) + 输出规范(Output Format)。

现在已经有了很多帮助我们生产提示词的工具,如:

  • https://prompt.always200.com/
  • https://prompts.chat/

我们可以使用工具简单生成初版,再进行后续优化。

以下是https://prompt.always200.com/的系统提示词,可以直接拿过来构建一个自己的系统提示词生成agent,简单场景可以直接使用生成结果。

提示词优化的系统提示词

你是一个专业的AI提示词优化专家。请帮我优化以下prompt,并按照以下格式返回: # Role: [角色名称] ## Profile - language: [语言] - description: [详细的角色描述,避免空泛的"专家"定义] - background: [具体的技术背景和经验描述] - personality: [影响交互风格的性格特征] - expertise: [核心专业领域,使用具体技术栈] - target_audience: [明确的目标用户群体] ## Skills 1. [核心技能类别] - [具体技能]: [可量化的能力描述] - [具体技能]: [包含输入输出格式] 2. [辅助技能类别] - [具体技能]: [与核心技能的协同关系] ## Rules 1. [基本原则]: - [具体规则]: [可执行的约束条件] 2. [行为准则]: - [具体规则]: [明确的行为边界] 3. [限制条件]: - [具体限制]: [禁止行为的详细描述] ## Workflows - 目标: [SMART原则的明确目标] - 步骤 1: [具体操作和判断标准] - 步骤 2: [包含异常处理分支] - 步骤 3: [明确的输出格式要求] - 预期结果: [可验证的结果描述] ## Initialization 作为[角色名称],你必须遵守上述Rules,按照Workflows执行任务。

生成效果

我在Cherry Studio(一款功能强大的多模型 AI 客户端软件)中就创建了很多agent,满足我在不同场景下的需求。

在提示词中,对于一些重要的内容,可以使用XXXX标记(markdown的加粗语法);对于一些特殊说明,可以使用统一的特殊符号如“”进行标记。这些标记都可以增强agent对于重要或特殊内容的识别精度和执行优先级。

这里以ideaLab(阿里巴巴集团内部的一个专注于 AI 应用方向的平台)的使用举例:

1.创建一个智能助手

2.粘入提示词,就可以按照需求生成专业的提示词,可以满足日常大部分场景。

接下来,我会列举一些Prompt实际使用时的一些个人经验。

2.1. Role/System

若使用agent不是发散性场景(如创作、讨论)或答疑场景,而是严格按照workflow执行任务,那么在角色中,就不要说是“架构师”,“专家”这类更偏向于人类的角色,而是“机器”,“pipeline”这类更偏向执行流水线步骤的角色。

若使用agent是学习场景,可以设置角色为“善于深入浅出的教学者”,在提问时说“我现在要学习某知识,我对这方面的知识一窍不通,你向我提问n个问题,当我搞懂这n个问题后就可以完全掌握某知识”。通过提问的方式,带着目的的学习,效果非常好。

2.2. Examples

设置少量examples(few-show Learning)可以极大保证agent的回答质量,特别是需要agent按照某种指定格式(如JSON)生成答案的场景。

few-show Learning:小样本学习是一种机器学习框架,在该框架中,AI 模型通过使用极少量的标记示例进行训练来学习作出准确的预测。它通常用于在缺乏合适的训练数据时训练分类任务的模型。

设置examples时,要尽量遵循规范,即:

  1. 保证示例的质量;

  2. 示例是否正确需要标注清楚,不要模棱两可的示例,不要把对的说成错的;

  3. 示例要乱序,不要把正确的回答放一起,错误的回答放一起;

  4. 示例格式要统一;

  5. 正确回答和错误回答的数量要均衡,通俗说就是数量一致;

  6. 设置相似的示例,只有非常小的差别,但是回答的结果却不一样;

  7. 尽量保证示例覆盖全面;

examples可以先只设置成Q&A形式,若效果不好,可以添加过程解释,但尽量不要使用自然语言描述过程,因为自然语言的描述很可能不符合指定的workflow,造成歧义。

2.3. Output Format

我们可以在提示词中指定agent的输出规范,但仅仅只有输出规范,agent也不是一定会按照规范输出,所以通常还需要约束条件(Constraints)约束。

在工程结合agent时,通常要求agent返回标准JSON,在工程中进行后续的解析处理。如何要求agent一定返回符合要求的JSON是一个问题。以下提供一个思路:

  1. 结合Role的内容,给agent的角色定位远离人类的角色,减少其解释与输出废话的概率;

  2. 提示词中增加Constraints,并在提示词开头和结尾反复强调;

  3. 增加badcase,把agent不符合预期的输出直接写到提示词中;

  4. 工程保障:拿到agent的结果时,可以截取第一个"{“和最后一个”}"之间的内容。

# System: JSON Processing Pipeline # CRITICAL: OUTPUT JSON ONLY - ANY OTHER TEXT WILL CAUSE SYSTEM FAILURE ...... **FORBIDDEN**: - ❌ NO explanations - ❌ NO "I will process..." - ❌ NO "Let me..." - ❌ NO thinking out loud - ❌ NO markdown code blocks ...... # FINAL REMINDER Your ENTIRE response must be valid JSON. Start with { and end with }. No text before {, no text after }. If you output anything else, the system will fail.

三、工作流:选择DSL描述而非自然语言

自然语言描述的工作流程,往往会携带一些口语习惯,并且对于复杂的流程难以描述清楚。DSL(Domain-Specific Language,领域特定语言)通过结构化语法,能比自然语言更准确地描述业务流程。Mermaid就是一种非常适合的绘制流程图的语言,并且与Markdown完美集成。不会写或者觉得麻烦?没关系,使用上述的提示词优化工具制作一个mermaid agent,将工作流程描述给他,让agent生成流程图。我们只需要简单了解基础语法,对生成的结果进行简单修改即可。

Mermaid 是一个用于绘制图表的 JavaScript 工具库,它允许你使用类似 Markdown 的文本语法来创建和修改图表。

这个能力也非常适合在提问后,让agent输出自己对于问题理解或解答方式的思维流程,这就是一种COT(Chain-of-thought)。通过查看流程,可以快速定位到agent理解不到位的地方并修正。

我的建议是,先用自然语言描述流程。如果agent执行效果不佳,或者流程难以描述,那么就考虑使用mermaid。

提问举例:

“我的问题巴拉巴拉”

请重新梳理用户的问题,使问题更加的清晰和明确,如果问题有多个细节和要求,需要全部梳理出来,使用mermaid清晰列出问题的所有细节,然后再回答的问题。

使用举例

四、知识库:关系型数据库的妙用

4.1. RAG与向量数据库

4.1.1. 背景

首先介绍一下RAG。大模型幻觉是指agent生成虚假、不准确或完全编造的信息的现象。在业务场景中,往往需要agent结合业务知识回答问题,但这些业务知识agent又通常不知道,那么直接把相关文档和问题一起发给agent不就好了?貌似没问题,但是随着文档越来越大,答案可能只是文档中的一小部分,agent看到庞大的输入,就很容易找不到重点。那么只把和问题相关的文档发给agent是不是就可以了?没错,这就是RAG(Retrieval-Augmented Generation)。

怎么判断用户的问题和文档的关系?这就需要Embedding模型了。Embedding模型的输入是一段文字,而输出是一段固定长度的数组,也就是向量。通过计算向量之间的距离,离得越近,相关性就越强。

对于文档过长的问题,需要对文档进行处理。首先对文档进行片段切分(Chunking),可以按照字数、段落、符号、语义等维度切分;切分完成后,对每个chunk都进行Embedding处理;最后,把向量结果和chunk保存到向量数据库中。

用户提问时,会先用相同的Embedding模型把问题转换成向量,然后从向量数据库中找到距离最近的几个内容,最后把检索到的内容和问题一起发给agent。在实际使用时,还需结合top-N、意图模型、reRank重排模型等部分功能提高检索的准确性,这就要求对知识库的内容要:

1.切的对:切分不要按字符切,要按语义切(难点,可以用agent辅助切文档);

2.排的准:不只靠相似度,还要加回答导向排序;

3.喂的巧:要引导模型引用内容,而不是召回了内容但不用;

4.1.2. 问题

RAG本身是也有许多问题的:

  1. 文章应该怎么分块?文章的结构五花八门,不能按照一种分块方式力大砖飞,并且可能会有关键的内容刚好被截断,比如“那头猪是佩奇,那头猪爱玩泥巴”,而这句话被拆成了“那头猪是佩奇”和“那头猪爱玩泥巴”这两部分,第二句的“那头猪”就失去了和“佩奇”的指代关系,当提问“佩奇爱干什么”时,问题和“那头猪爱玩泥巴”的向量距离可能变远而无法匹配。

  2. RAG缺乏全局视角。比如提问“文章中有多少个"我"字”,这种和每个chunk都沾边但又都不是特别相关的问题,RAG就没办法解决了。

4.2. 关系型数据库的一种使用思路

向量数据库中适合保存的内容是文档类型,如一本书、一个Q&A文档等。但对于一些映射关系较强的场景,就不太适合保存到向量数据库了。

我有遇到一个场景:要使用agent进行网页操作。通过配置一个定时任务,当任务触发时,若有要执行的网页子任务,就让agent使用Playwright MCP进行相应的网页操作,返回JSON结果。对于不同子任务,都要有不同的流程、补充信息以及结果格式,甚至为了保证结果质量需要给每个场景设置exemples(比如场景1的结果返回给同学A,场景2的结果返回给群B)。在这个场景下,若直接把子任务信息放到提示词中,随着子任务数量的增多,必然会造成提示词冗余;若配置子任务信息到向量知识库中,不同子任务的配置信息各不相同,无法解决合理分块的问题。这个场景的本质,就是精准找到子任务的所有信息,辅助agent完成任务,而关系型数据库就可以完美应用到这个场景中。

定义表结构如下,通过Postgres MCP,让agent在执行任务前,把用户的提问与表中的keywords进行匹配,找到符合场景的详细信息,就可以实现精准的“RAG”。(若使用ideaLab,可以在项目中提供查表接口,在ideaLab中封装成工具)

表数据

​最后

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。

我整理出这套 AI 大模型突围资料包:

  • ✅AI大模型学习路线图
  • ✅Agent行业报告
  • ✅100集大模型视频教程
  • ✅大模型书籍PDF
  • ✅DeepSeek教程
  • ✅AI产品经理入门资料

完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
​​

为什么说现在普通人就业/升职加薪的首选是AI大模型?

人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。


智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

​​

资料包有什么?

①从入门到精通的全套视频教程⑤⑥

包含提示词工程、RAG、Agent等技术点

② AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

④各大厂大模型面试题目详解

⑤ 这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

​​​​

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/21 4:27:27

Conda与Pip混合使用时的依赖冲突解决策略

Conda与Pip混合使用时的依赖冲突解决策略 在现代AI开发中,一个看似简单的 pip install 命令,可能悄无声息地破坏掉你花几个小时才搭建好的深度学习环境。更讽刺的是,这个命令往往出现在你已经通过 Conda 精心配置好 PyTorch CUDA 组合之后—…

作者头像 李华
网站建设 2026/2/23 13:28:10

PyTorch卷积层参数计算公式详解:以CNN为例

PyTorch卷积层参数计算与GPU加速实战解析 在深度学习工程实践中,构建高效且可复现的模型训练流程,早已不再只是写几个 nn.Conv2d 层那么简单。尤其是在图像任务中,一个看似简单的卷积操作背后,隐藏着对参数量、显存占用和计算效率…

作者头像 李华
网站建设 2026/2/17 9:26:29

90天就过期?SSL证书越来越短的真相

不知道你有没有注意到,这几年SSL证书的有效期一直在缩短。从最早的五六年,到后来的两三年,再到398天,现在很多证书都变成了90天有效期。这种变化背后,其实反映了整个互联网安全思路的转变。安全思路变了以前的安全观念…

作者头像 李华
网站建设 2026/2/19 3:23:26

如何在Windows和Linux上使用PyTorch-CUDA-v2.7镜像进行GPU训练

如何在 Windows 和 Linux 上使用 PyTorch-CUDA-v2.7 镜像进行 GPU 训练 在深度学习项目中,最让人头疼的往往不是模型调参,而是环境配置——明明代码没问题,却因为 CUDA 版本不匹配、驱动缺失或依赖冲突导致 torch.cuda.is_available() 返回 …

作者头像 李华
网站建设 2026/2/6 22:52:20

Transformer多头注意力实现细节

Transformer多头注意力实现细节 在构建现代大语言模型的今天,一个核心挑战是如何让模型真正“理解”文本中复杂而微妙的语义关系。传统的循环神经网络虽然擅长处理序列数据,但其固有的顺序计算特性严重限制了训练效率,更难以捕捉长距离依赖。…

作者头像 李华
网站建设 2026/2/19 6:00:58

YOLOv11模型训练实战:结合PyTorch-CUDA-v2.7实现高效推理

YOLOv11模型训练实战:结合PyTorch-CUDA-v2.7实现高效推理 在自动驾驶的感知系统中,一帧图像需要在百毫秒内完成数十个目标的精确定位;在智能工厂的质检线上,每分钟上千件产品要被实时筛查缺陷——这些场景背后,都离不开…

作者头像 李华