本文介绍了一种六模块提示词结构(角色/任务、核心原则、上下文处理、CoT、输出规范、Few-Shot),帮助编写高效Prompt让大模型准确执行任务。作者分享了借助模型生成初始版本和优化提示词的方法,强调在复杂场景下这种结构能显著提升模型准确率。通过详细解释各模块作用和编写技巧,为用户提供了一套系统化的Prompt工程方案,让大模型"听话"执行任务。
前言
你在写prompt时候,是不是总觉得大模型它不听话。要么答非所问、要么一堆废话。扒开思考过程仔细阅读时而觉得它聪明绝顶,时而又觉得它愚蠢至极。明明已经对了怎么又推理到错的地方去了,明明在提示词中提醒过了不要这么思考它怎么就瞎想了。这也许就是每一个Prompt Engineer的困扰。怎么能让模型按照要求去思考。
长提示词到底应该怎么写,有没有方法可以一次命中,找到那个终极的提示词。 答案是否定的,一篇成功的长提示词总是要经历初始版本、调优、测试、再调优。不过这个过程中有规律可循,有方法可套。 以下就是被提示词反复捶打,经历无数痛苦经历后总结的一套提示词写作方案,保你可以得到满意的长提示词,让模型听话。
结构
也许你小某书、某站看过了各种提示词结构,比如:CRISE,BROKE,ICIO等等,这些框架当然是有很大价值的,在非精准类问题(精准类问题:数据查询分析,非精准类问题:文本解析,写作、翻译等)或者非复杂性问题上没有问题。在复杂性高的精准性问题上就没有那么有效了。我们这边一直探索的是大模型在数据分析场景的应用,对准确性要求极高,覆盖的场景也非常的复杂,经过探索和尝试,总结出来一套形式有效的提示词结构:
角色/任务 + 核心原则 + 上下文处理 + CoT(Chain of Thoughts) + 输出规范 + Few-Shot
还需要适当添加要求和限制,下面会以实战经验来讲解每一个模块应该怎么写。
写在前面
模型是接收Prompt的主体,同时也是写Prompt的高手,在初始版本和调优过程中也可以起到关键作用。
借助模型生成初始版本Prompt
- 准备query和期望输出的结果30条
- 准备上下文输出,和文本结构介绍
- 清晰描述模型要实现的目标以及输出的提示词框架
将以上内容给到大模型,可以快速得到初始版的提示词,比自己动手写第一版要有效的多。
借助模型优化Prompt
- 准备测试集以及当前prompt生成的结果
- 添加准确结果和备注,备注描述生成错误结果的原因
使用模型初始化和优化可以解决基础问题,真正的优化还是要靠自己。
Prompt格式
md或者json,我选择md格式。
不仅仅是因为md格式比较好看,主要是为你md格式结构清晰,撰写方便,而且拓展性很好。总结下来md是比较好的选择。
json格式虽然结构清晰,但是扩展性太差,写的太长了容易把自己搞晕,慎重选择。
Prompt模块
不同模块承担不同的作用,复杂程度不同需要的模块也不同。
角色&任务
角色辅助,讲清楚任务。 此部份在prompt最前面,是最高指令,告诉模型它是谁,要干嘛。
角色:模型本身是具备各领域知识能力的,解决当前具体问题需要调用模型哪方面的能力,是通过角色定位完成的。 你是一名牙科医生,你是一名数据分析师、你是一名川菜厨师等让模型从一个杂学家变成专业领域的科学家。
任务:一句话讲清楚模型要干嘛,数据分析师可以写sql查询数据、可以使用python分析数据、可以数据可视化,也可以写分析报告。
角色和任务约束模型调用某方面能力完成一个具体的事情。
核心原则
核心原则可以一开始就输出,也可以在调优过程中生成。 可以理解为模型执行任务时要遵守的最高原则,纲领性质的要求。所以核心准则不能多,3条以内,超过3条很容易就失效了。
比如在生成sql的prompt中,为了保证生成的sql可以查询出数据,就得有以下核心原则。
比如在做分词提取时,我们的分词倾向性也可以写在核心原则内
一开始实现某个任务时,核心原则可能还没有,在优化过程中有些问题在提示词主体中总是解决不了,可以考虑在核心原则中优化。对于模型来源核心原则会被考虑的权重是比较高的,仅次于角色和任务。
上下文处理
当前Context Engineering概念比Prompt Engineering更加流行,一句话概括就是让上下文以恰当的格式出现在恰当的位置,知识库可以包括:多论对话的长短记忆、知识库rag结果、提示词、工作流上游输出等。能让上下文发挥最大作用,就必须把上下文讲清楚,放对位置。
上下文模块组织原则:
- 上下文内容比较长,最好放到最后,以免打断提示词
- 上下文结构讲清楚,合适和组织形式影响token数量也会影响性能(不展开讲)
- 上下文在任务中承担的作用和价值
举例:在生成sql环节,上下文输入较多,具体组织形式如下:
上下文输入:一般放在提示词结尾处:
特别注意:上下文的结构和形式的优化一般适合提示词的优化协同的,二者同步优化才能达到最好的效果。
CoT(Chain of Thoughts)
CoT
CoT本来是提示词的一种框架,是针对逻辑比较强的任务场景提出的。就是要提醒或者约束模型按照要求思考,以提升准确率。
举个经典例子:小明有5个苹果,3个梨。妈妈拿走2个苹果,爸爸给了1个梨,小明拿1个梨和姐姐换了1个苹果,请问最终小明有几个苹果几个梨。
提示词1: 请回答最终小明有几个苹果几个梨; 这时候答案很有可能是错的。
提示词2: 第一步:将小明每次获取、失去、交换所有物品作为一个节点,奖整个过程按照节点切分成不同的计算任务 第二步:计算每一个节点结束后小明所有物品的数量 第三步:计算出最终的结果后复盘是否准确;这个时候模型就是一步一步计算结果,更容易得到正确的答案。
在复杂场景下,CoT,也可以理解为执行流程或者说思考过程,可以作为整个prompt一部份,模型在充分理解任务和上下文之后,再按照CoT步骤执行拆解任务,往往可以让模型按照要求执行,听话程度高出很多。我们的经验是可以提升准确了20个percent。
示例如下:维度解析
要求和限制
要求和限制,看是什么级别,可以写在CoT模块内,也可以单独一个模块,因地制宜即可。
要求和限制一般是任务中需要特殊强调、特殊处理的逻辑,建议二者分开写。举例:
特殊逻辑表达
在写prompt中有些逻辑用文字特别难以准确表达,有时候准确表达出来需要上百字,对于模型准确理解就更难了。 这个时候可以考虑使用伪代码来表达,模型理解起来既快又准。
比如,收入月报每月定稿时间13日,如何根据当前时间取出月表的最新时间,并考核时间的格式。
输出规范
模型太爱表达了,它往往不会只输出你想要的内容,总是输出很多自己的思考过程或者考虑的因素,以表达自己的聪明。又或者是不按照要求的格式输出,对输出的规范要求必不可少,一些平台可以实现结构化输出,不过结构化输出的基础是要模型能输出结构清晰的结构。
输出规范一般包含两部分内容:
- 期望输出的内容和结构
- 禁止输出的内容和结构
举例如下:
Few-Shot
提升准确率非常有效的手段,就好比一个应届生,你让他去看一个文件,然后按照文件要求做事,很难理解到位。 如果你再提供一两个例子,基本上聪明的同学就能很好的完成任务。 模型当然属于聪明的同学这一类。示例一定要按照上述CoT的过程来写,二者一致则能让模型最大限度的按照既定的要求思考。
举例如下:
写在最后
不同的模型、不同的场景也许写prompt的细节不尽相同,但整体的框架是相通的。按照这个框架,人人都可以写出满意的Promt! 以上分享来自腾讯CSIG磐石数据中心。在数据洪流时代,企业不缺数据,缺的是从数据中洞见未来的能力。CSIG磐石数据中心以领先的AI数据分析引擎,为您打造“会思考、能决策”的智能数据中枢!
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。
大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
适用人群
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。