news 2026/4/19 18:18:12

什么是Harness Engineering?

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
什么是Harness Engineering?

在过去一年里,越来越多团队尝试用大模型完成复杂任务。但一个现实是:AI 往往能做好单个步骤,却难以完成完整流程。

Anthropic 在2026年3月24日发布的一篇博客****实践中给出的结论很直接:问题不在模型能力,而在任务组织方式。

这也是 Harness Engineering真正重要的原因。

**01什么是 Harness Engineering?

Harness Engineering,简单说就是给 AI 搭一套"工作系统"——不只告诉它做什么,还规定怎么做、按什么步骤、做完如何检查、下一步去哪里。

简单任务里,一个精准的 Prompt 往往足够;但一旦涉及设计、开发、评审与多轮迭代,Prompt 就容易失控——执行中断、结果不稳定、难以复用。

这就需要在 Prompt 之上建立更完整的方法论。

以"让 AI 写一份技术方案"为例:Prompt 决定你怎么问,Context 决定它看哪些资料,Harness 决定任务怎么触发、结果怎么验证、出错怎么处理。

三者关系如下图:

  • Prompt Engineering(提示词工程):怎么说一句话——撰写清晰有效的指令。
  • Context Engineering(上下文工程):如何组织信息——为模型提供背景、检索数据(RAG)与历史对话。
  • Harness Engineering(框架工程):整个系统如何运转——覆盖评估、监控、安全护栏与部署架构。

Harness 真正的转变是:你不再只是与 AI 对话,而是在设计一套让 AI 持续稳定工作的系统。AI 工程的核心能力,正在从"会写 Prompt"转向"会设计系统"。

02 为什么 AI 做不好长任务?本质不在模型

如果只是让 AI 回答一个问题,一个好的 Prompt 往往已经足够。但一旦任务变成「多阶段、长周期」——比如从需求设计、到开发实现、再到测试优化,Prompt 就会迅速失效。

问题的本质在于:AI 并不擅长在长时间任务中保持稳定表现,而且会常见地出现三类问题。

1.长任务一定失控:上下文不是“记忆”,只是缓存

很多人默认认为,对话历史 = AI记忆,但实际上:上下文只是一个有限缓存,而不是稳定记忆系统。一旦任务变长,就会出现:

  • 早期决策被覆盖(设计前后不一致)
  • 任务目标逐渐模糊(做着做着偏了)
  • 临近上下文上限时“提前收尾”(典型 AI 行为)

这也是为什么你会看到:同一个 AI,前 30 分钟很聪明,后 2 小时像“换了一个人”。

Anthropic 的解决方案不是优化 Prompt,而是直接承认这一点,并做了一个工程化处理:不让 AI 依赖上下文,而是用“结构化产物(artifact)传递状态”

本质上就是:把“记忆”从模型里拿出来,放到系统里。

2.自我评估几乎无效:AI不会否定自己

第二个更隐蔽的问题是:自评机制是失真的。无论是写代码、做设计还是写内容,只要让 AI 自己评价自己,它都会:

  • 倾向给高分

  • 忽略明显问题

  • 用合理化解释掩盖错误

这不是偶发,而是模型机制决定的(生成式模型默认“连贯优先”而不是“批判优先”)。

Anthropic 的做法很关键:彻底拆掉“自评”,引入独立 Evaluator。即:生成(Generator)负责“做”;评估(Evaluator)负责“挑错”

重点不只是“多一个 Agent”,而是:Evaluator 被单独训练成“更苛刻的角色”,这点非常反直觉,但效果显著:让 Generator 变严格很难,但让 Evaluator 变严格是可控的

一旦有了“外部批评”,AI 才真正进入迭代状态。

3.最大误区:把复杂任务当成“大一点的 Prompt”

  1. 大多数 AI 产品的一个根本问题是:用“单轮思维”去做“多轮系统”。例如:
  • 写一篇文章 → 直接让 AI 一次生成
  • 做一个功能 → 一次性描述所有需求
  • 设计一个产品 → 一段 Prompt 全搞定

这在简单任务上有效,但在复杂任务上会导致:结构混乱、逻辑断裂、无法迭代优化

Anthropic 的实践本质上是在做一件事:把任务“流程化”,而不是“Prompt化”

如果一定要用一句话总结 Harness:Harness 不是让 AI 更聪明,而是让 AI 按正确方式工作。

它解决的不是能力问题,而是:

  • 任务拆解(Planner)
  • 执行路径(Generator)
  • 质量控制(Evaluator)
  • 状态管理(Artifacts)

03 Harness vs 单次生成:Anthropic 的对比实验

为了验证 Harness 在真实场景中的效果。

Anthropic 团队做了一个非常直接的对比实验:用同一条 Prompt,让同一个 AI 模型分别以两种方式完成同一个任务——生成一个复古风格的 2D 游戏编辑器(包含关卡编辑、精灵编辑、实体行为以及可试玩模式)。

一组采用单次生成(单 Agent),另一组则走完整的 Harness 流程。

最终结果非常直观:虽然 Harness 方案的成本高出约 20 倍,但在结果呈现的那一刻,这个差距是否值得几乎不需要解释。

单跑版本看起来“像是完成了”,界面、入口一应俱全,但实际体验中问题接连出现:布局大量浪费空间、操作流程僵硬且缺乏引导。

更关键的是游戏本身是无法运行的——元素虽然渲染在屏幕上,但没有任何输入响应,本质上只是一个“能看不能用”的空壳。

Harness 版本则完全不同:在规划阶段就将一句简单需求拆解为 16 项功能、覆盖 10 个迭代周期的完整需求文档,同时内置了视觉设计规范与每一轮的验收标准。

最终产出不仅在界面上具备统一且完整的视觉风格,画布能够合理利用整个视口,编辑器功能真正可用,甚至还集成了 Claude,使用户可以通过对话直接生成游戏内容。

这种差异本质上不是“生成质量更高”,而是从“表面完成”跨越到了“真正可用”

04 小结

回到最开始的问题:Harness Engineering 为什么重要?

这篇博客其实已经给出了一个非常明确的答案——AI 的问题,从来不只是“能力不够”,而是“没有被正确组织”。

当我们用单次生成去解决复杂任务时,得到的往往只是“看起来完成了”的结果;

而当我们引入 Harness,把任务拆解、执行、评估和状态管理系统化之后,AI 才真正具备了交付“可用结果”的能力。

这背后的变化,不只是效果提升,而是范式切换:

  • 从一次性输出 → 持续迭代
  • 从结果导向 → 过程可控
  • 从“用 AI” → “让 AI 工作”

也正因如此,未来 AI 产品的差距,很可能不再主要体现在模型能力,而是体现在:你是否构建了一套完整的 Harness。

模型决定下限,但真正决定上限的,是你如何设计这套系统。

最后

对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?

答案只有一个:人工智能(尤其是大模型方向)

当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右

再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。

如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!

下面是我整理的大模型学习资源,希望能帮到你。

👇👇扫码免费领取全部内容👇👇

最后

1、大模型学习路线

2、从0到进阶大模型学习视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

4、AI大模型最新行业报告

2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5、面试试题/经验

【大厂 AI 岗位面经分享(107 道)】

【AI 大模型面试真题(102 道)】

【LLMs 面试真题(97 道)】

6、大模型项目实战&配套源码

适用人群

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/19 18:17:39

别再让HC-SR501乱动了!手把手教你调好感应距离和延时(附Arduino代码)

HC-SR501人体感应模块实战指南:从误触到精准控制的进阶技巧 刚拿到HC-SR501模块的创客们,往往会被它时而灵敏时而迟钝的表现弄得一头雾水。这个看似简单的小模块,其实藏着不少需要精细调校的细节。本文将带你深入理解热释电传感器的核心原理&…

作者头像 李华
网站建设 2026/4/19 18:13:05

uniapp图表库ucharts双y轴配置实战:从数据绑定到视觉呈现

1. 为什么需要双Y轴图表? 在实际业务场景中,我们经常遇到需要同时展示两组量纲和数值范围差异巨大的数据。比如房地产行业的"销售套数"和"销售面积",前者可能是几千套,后者可能只有几百平方米;又比…

作者头像 李华