当我们把一个功能需求交给 AI Agent,它写完 200 行代码,跑一下 lint——失败。它开始修复,移动文件、调整依赖、重新组织。再跑——又一个新问题。三次循环后,上下文窗口被错误日志塞满,Agent 开始"忘记"最初的任务目标。这不是 AI 不够聪明,而是 AI 看不见。
这篇文章,我们从四个核心概念出发:大模型(LLM)、Agent(智能体)、Skill(技能)、Command(指令),一步步拆解 AI 原生开发的底层逻辑,并结合 Harness 工程实践,给出一套让 AI 协作真正可靠、可复用、自我进化的完整方案。
一、大模型:AI 协作的"推理引擎"
大模型(Large Language Model,LLM)是整个 AI 原生开发体系的核心能力来源。它不是一个简单的问答系统,而是通过对海量文本的深度学习,掌握了语言理解、逻辑推理、代码生成、指令遵循等综合能力的神经网络。
大模型能做什么?
大模型的局限性
理解局限同样重要。大模型不知道你的内部架构约定,不知道新文件该放哪个目录,不知道哪些 import 是被禁止的。它的"知识"截止于训练数据,而不是你的代码仓库。更关键的是:上下文窗口有限。任务越复杂,早期的关键信息越容易被"遗忘"。
类比:LLM 就像 CPU——推理能力极强,但没有"操作系统",它不知道硬盘在哪、哪些内存地址可以写。Agent + Harness 就是给它装的那个"操作系统"。
二、Agent:会"行动"的 AI
如果说大模型是大脑,那么 Agent(智能体) 就是能够感知环境、制定计划、调用工具、执行任务的"完整个体"。它的核心差异在于:不止是"回答",而是"行动"。
Agent 的五层结构
感知层 → 大模型(LLM) → 规划层 ↕ ↕ ↕ 记忆层 ←←←←← 工具层 →→→→→ 执行层感知层:接收用户输入、文件内容、工具输出,构建当前上下文。
记忆层:分短期记忆(当前对话上下文)和长期记忆(跨会话的项目知识、经验教训)。
规划层:使用链式思考(Chain of Thought)将复杂目标分解为可执行步骤。
工具层(Tools / Skills):调用外部能力——代码执行、Web 搜索、文件读写、API 调用等。
执行层:将规划转化为具体操作,并将结果反馈回感知层,形成闭环。
Agent 与 LLM 的区别
三、Skill:可复用的"能力模块"
如果把 Agent 比作一位工程师,那么 Skill(技能) 就是他工具箱里一件件专业工具。Skill 是对特定能力的封装与复用单元,做到"写一次,到处用"。
Skill 的四大类型
代码技能:代码生成、代码审查、重构优化、测试编写——覆盖开发全生命周期。
工具技能:文件操作、API 调用、Shell 命令、数据处理——与系统环境深度集成。
搜索技能:Web 检索、代码检索、文档查询——信息获取的标准化接口。
协作技能:任务委派、结果汇总、状态同步——多 Agent 协作的"润滑剂"。
Skill 的核心设计原则
# 一个标准 Skill 的结构 --- allowed-tools: Bash, Read, Write, Edit, Grep description: 描述这个 Skill 能做什么,触发条件是什么 argument-hint: "[--option1 <value>] [--option2 <value>]" --- # Skill 名称 ## 执行逻辑 1. 输入解析 2. 核心处理 3. 输出格式化Skill 的价值在于:
- 一致性:同一个能力,无论被哪个 Agent 调用,行为都是一致的
- 可测试性:独立的单元,可以单独验证正确性
- 可组合性:多个 Skill 串联,构建复杂工作流
- 可进化性:优化一个 Skill,所有使用它的流程都受益
实战案例:/doc self-evolve 是一个典型的复合 Skill——它内部编排了风格学习、Writer 创作、Reviewer 评分三个子流程,以 85/100 为目标分数,Writer-Reviewer 双 Agent 迭代,最多 3 轮收敛。
四、Command:用户意图的"结构化语言"
Command(指令) 是用户与 AI 协作体系之间的标准接口。它把模糊的"做这个"转化为精确的、参数化的执行指令,让 Agent 知道"做什么、怎么做、达到什么目标"。
Command 的三种形态
- Slash 命令(Slash Command):
printf("/doc self-evolve --title "AI原生开发指南" --target-score 90 /commit --message "feat: add harness validation pipeline" /review --type security --file src/auth.tshello world!");- CLI 参数化指令:
python3 scripts/verify_action.py --action "create file internal/types/user.go" # ✓ VALID: internal/types/ is Layer 0, user.go follows naming convention python3 scripts/verify_action.py --action "import internal/core from internal/handler" # ✗ INVALID: internal/handler (L4) cannot import internal/core (L3) # Fix: handler should depend on core through interfaces- 自然语言指令(配合意图解析):
"帮我审查 auth 模块的安全性,重点检查 token 存储方式" "把用户认证逻辑重构成符合我们分层架构的形式"Command 的执行链路
用户输入 → 指令解析 → Skill 加载 → Agent 执行 → 结果验证 → 输出返回 ↑_________|(验证失败重试)好的 Command 设计应该做到:
- 参数明确,无歧义
- 有明确的完成标准(验收条件)
- 支持错误时的优雅降级
- 错误信息足够清晰,能"自教学"
五、Harness 工程:让 AI 协作真正可靠
理解了四个核心概念之后,我们来看一个把它们有机整合起来的工程框架——Harness Engineering(驾驭工程)。
核心思想:仓库即操作系统
传统做法是教 AI “怎么做”——写更好的 Prompt,提供更多示例。但这条路有天花板:规则会随代码演进变化,你永远追不上。
Harness 的思路不同:与其教 Agent 怎么做,不如让它自己验证做得对不对。
教学思路(有上限): 写更好的Prompt → 提供更多示例 → 规则文档 → ... Harness思路(无上限): 代码 + linter + 测试 → 机械执法 → 自动拦截问题Harness 的五层架构
第一层:仓库即事实来源
- AGENTS.md:导航地图(~100行),索引+指路,不是手册
- docs/:架构文档、分层规则、业务上下文
- 知识随代码版本化,Agent 打开项目即读到全部上下文
第二层:结构化知识体系
- ARCHITECTURE.md:层级约束(Layer 0 → Layer 4+),依赖方向规则
- DEVELOPMENT.md:构建/测试/lint 命令速查
- design-docs/:组件级设计文档,按需加载
第三层:机械化验证层
验证顺序:build → lint-arch → test → verify,逐层递进,编译都过不了就别往下走。
第四层:多 Agent 编排层(详见下节)
第五层:自进化学习层(详见后文)
六、多 Agent 协作:上下文是最贵的资源
单 Agent 处理复杂任务时,上下文窗口会被代码 diff、编译错误、lint 报告逐渐填满。到第 40 次工具调用,早期的关键决策已被压缩丢失,Agent 开始做出自相矛盾的改动。
解法:两层架构——协调者永不写代码。
协调者 vs 执行者
任务复杂度与执行策略
改个 typo / 加行日志 → 直接执行(1次对话) 多文件一致性修改 → 委派子代理(干净上下文) 重构 / 新模块 → 子代理 + Worktree 隔离判断法则:能用一句话描述且不含"和"字的,直接做;需要清单跟踪的,委派;需要设计权衡的,委派+隔离。
模型分级调用:成本节省 60-70%
# 简单任务,轻量模型 Agent(description="rename-user-field", model="haiku", prompt="...") # 复杂任务,重量级模型 + 隔离执行 Agent(description="refactor-auth-module", model="opus", isolation="worktree", prompt="...") # 交叉 Review,换一个架构完全不同的模型 review_result = Agent(description="Review: rate-limiter", model="codex", prompt=f"Review for logic correctness, edge cases, naming...\nChanges: {diff}")一个中等复杂功能:Search Agent(Flash)检索代码 + Coder Agent(Opus)实现 + Review Agent(Codex)审查,总成本比全用顶级模型降低 60-70%,质量不打折扣。
七、Harness 自进化:从静态规则到动态学习
以上讲的 Harness 还是静态的——人定规则,Agent 遵守。真正有意思的是:Harness 能从 Agent 的失败里学东西。
三种记忆机制
情景记忆:记录具体教训
"macOS 下 /var 是 /private/var 的符号链接,会导致工作区路径比较失败"10秒加载,省下一整个重试循环。
程序记忆:记录成功步骤
“添加 API 端点的标准五步流程(创建类型→写服务方法→加 handler→注册路由→写测试),成功率 90%”
失败记忆:供 Critic 分析
同类错误出现 3+ 次 → 分析根因 → Refiner 更新 lint 规则 → 下一个 Agent 受益
轨迹编译:从 AI 到确定性脚本
当同一类任务被成功执行 3 次以上,且步骤高度一致,这个模式可以被"编译"成确定性脚本:
# 之前:每次都需要 LLM 推理 Agent("添加 API 端点 NAME=UserProfile") # 消耗 Token + 时间 # 编译后:直接执行脚本 make add-endpoint NAME=UserProfile # 毫秒级,零 LLM 成本棘轮效应:每个成功模式变成永久基础设施,LLM 被释放去处理真正需要创造力的新问题。系统运行成本越来越低,能力越来越强。
八、四大概念的协作关系
把前面所有内容放在一张图上:
四者的关系可以用一句话概括:
大模型提供推理能力 → Skill 封装复用这些能力 → Command 触发执行特定工作流 → Agent 自主协调完成复杂任务
在 Harness 工程中,这四者被整合成一个可靠、可复用、自我进化的 AI 协作系统:
printf("hello world!");用户发出 Command(/doc self-evolve --title ...) ↓ Coordinator Agent 加载 Skill(writer + reviewer) ↓ Coder Agent(Opus)根据风格卡片生成初稿 ↓ Reviewer Agent(不同模型)评分 + 诊断(双维度,50+50分) ↓ 未达标(< 85/100) Writer 读取诊断报告,针对性修复(最多3轮) ↓ 达标或收敛 输出最终文章,Trace 记录经验 ↓ Harness Refiner 更新规则(下次更好)九、实践路线图
从零开始,三步落地
第一步(立竿见影):写一个 AGENTS.md
- ~100 行,只做索引和指路
- 包含:架构层级规则、目录结构说明、常用命令速查
- 效果:新会话不再需要重复解释背景
第二步(构建护栏):添加 lint 脚本
- lint-deps:扫描 import 语句,检查层级违反
- lint-quality:文件行数、禁用语句、命名规范
- 关键:错误信息要足够清晰,说明违反了什么规则、为什么、如何修
第三步(验证闭环):接入 validate.py
- 统一验证入口:build → lint-arch → test → verify
- verify 脚本覆盖核心用户路径(不是"函数返回值对不对",而是"用户操作最终结果对不对")
不同规模项目的策略
总结
AI 原生开发不是"用 AI 帮你写几行代码",而是重新思考人与 AI 在工程体系中各自扮演的角色:
- 人的价值从"写出正确的代码"变成了"设计出让 Agent 能可靠产出正确代码的环境"
- 大模型是推理引擎,不是万能答案机——它需要"操作系统"
- Skill 是可复用的能力单元,Command 是结构化的意图表达,Agent 是自主的执行者
- Harness 把团队约定从"希望被遵守"变成"不遵守就报错"
- 系统的终极形态:棘轮效应——每次执行都在强化,每次失败都在学习,越用越聪明
你不再需要自己拧每一颗螺丝。但你得确保流水线是对的。
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。
随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。
希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01教学内容
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
vx扫描下方二维码即可
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:
04视频和书籍PDF合集
从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
05行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!
0690+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)
07 deepseek部署包+技巧大全
由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】