news 2026/4/14 21:30:51

收藏 | AI原生开发入门:Agent、Skill、Command全解析,小白也能看懂大模型协作逻辑

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
收藏 | AI原生开发入门:Agent、Skill、Command全解析,小白也能看懂大模型协作逻辑

当我们把一个功能需求交给 AI Agent,它写完 200 行代码,跑一下 lint——失败。它开始修复,移动文件、调整依赖、重新组织。再跑——又一个新问题。三次循环后,上下文窗口被错误日志塞满,Agent 开始"忘记"最初的任务目标。这不是 AI 不够聪明,而是 AI 看不见。

这篇文章,我们从四个核心概念出发:大模型(LLM)、Agent(智能体)、Skill(技能)、Command(指令),一步步拆解 AI 原生开发的底层逻辑,并结合 Harness 工程实践,给出一套让 AI 协作真正可靠、可复用、自我进化的完整方案。

一、大模型:AI 协作的"推理引擎"

大模型(Large Language Model,LLM)是整个 AI 原生开发体系的核心能力来源。它不是一个简单的问答系统,而是通过对海量文本的深度学习,掌握了语言理解、逻辑推理、代码生成、指令遵循等综合能力的神经网络。

大模型能做什么?

大模型的局限性

理解局限同样重要。大模型不知道你的内部架构约定,不知道新文件该放哪个目录,不知道哪些 import 是被禁止的。它的"知识"截止于训练数据,而不是你的代码仓库。更关键的是:上下文窗口有限。任务越复杂,早期的关键信息越容易被"遗忘"。

类比:LLM 就像 CPU——推理能力极强,但没有"操作系统",它不知道硬盘在哪、哪些内存地址可以写。Agent + Harness 就是给它装的那个"操作系统"。

二、Agent:会"行动"的 AI

如果说大模型是大脑,那么 Agent(智能体) 就是能够感知环境、制定计划、调用工具、执行任务的"完整个体"。它的核心差异在于:不止是"回答",而是"行动"。

Agent 的五层结构

感知层 → 大模型(LLM) → 规划层 ↕ ↕ ↕ 记忆层 ←←←←← 工具层 →→→→→ 执行层

感知层:接收用户输入、文件内容、工具输出,构建当前上下文。

记忆层:分短期记忆(当前对话上下文)和长期记忆(跨会话的项目知识、经验教训)。

规划层:使用链式思考(Chain of Thought)将复杂目标分解为可执行步骤。

工具层(Tools / Skills):调用外部能力——代码执行、Web 搜索、文件读写、API 调用等。

执行层:将规划转化为具体操作,并将结果反馈回感知层,形成闭环。

Agent 与 LLM 的区别


三、Skill:可复用的"能力模块"

如果把 Agent 比作一位工程师,那么 Skill(技能) 就是他工具箱里一件件专业工具。Skill 是对特定能力的封装与复用单元,做到"写一次,到处用"。

Skill 的四大类型

  1. 代码技能:代码生成、代码审查、重构优化、测试编写——覆盖开发全生命周期。

  2. 工具技能:文件操作、API 调用、Shell 命令、数据处理——与系统环境深度集成。

  3. 搜索技能:Web 检索、代码检索、文档查询——信息获取的标准化接口。

  4. 协作技能:任务委派、结果汇总、状态同步——多 Agent 协作的"润滑剂"。

Skill 的核心设计原则

# 一个标准 Skill 的结构 --- allowed-tools: Bash, Read, Write, Edit, Grep description: 描述这个 Skill 能做什么,触发条件是什么 argument-hint: "[--option1 <value>] [--option2 <value>]" --- # Skill 名称 ## 执行逻辑 1. 输入解析 2. 核心处理 3. 输出格式化

Skill 的价值在于:

  • 一致性:同一个能力,无论被哪个 Agent 调用,行为都是一致的
  • 可测试性:独立的单元,可以单独验证正确性
  • 可组合性:多个 Skill 串联,构建复杂工作流
  • 可进化性:优化一个 Skill,所有使用它的流程都受益

实战案例:/doc self-evolve 是一个典型的复合 Skill——它内部编排了风格学习、Writer 创作、Reviewer 评分三个子流程,以 85/100 为目标分数,Writer-Reviewer 双 Agent 迭代,最多 3 轮收敛。

四、Command:用户意图的"结构化语言"

Command(指令) 是用户与 AI 协作体系之间的标准接口。它把模糊的"做这个"转化为精确的、参数化的执行指令,让 Agent 知道"做什么、怎么做、达到什么目标"。

Command 的三种形态

  1. Slash 命令(Slash Command):
printf("/doc self-evolve --title "AI原生开发指南" --target-score 90 /commit --message "feat: add harness validation pipeline" /review --type security --file src/auth.tshello world!");
  1. CLI 参数化指令:
python3 scripts/verify_action.py --action "create file internal/types/user.go" # ✓ VALID: internal/types/ is Layer 0, user.go follows naming convention python3 scripts/verify_action.py --action "import internal/core from internal/handler" # ✗ INVALID: internal/handler (L4) cannot import internal/core (L3) # Fix: handler should depend on core through interfaces
  1. 自然语言指令(配合意图解析):
"帮我审查 auth 模块的安全性,重点检查 token 存储方式" "把用户认证逻辑重构成符合我们分层架构的形式"

Command 的执行链路

用户输入 → 指令解析 → Skill 加载 → Agent 执行 → 结果验证 → 输出返回 ↑_________|(验证失败重试)

好的 Command 设计应该做到:

  • 参数明确,无歧义
  • 有明确的完成标准(验收条件)
  • 支持错误时的优雅降级
  • 错误信息足够清晰,能"自教学"

五、Harness 工程:让 AI 协作真正可靠

理解了四个核心概念之后,我们来看一个把它们有机整合起来的工程框架——Harness Engineering(驾驭工程)。

核心思想:仓库即操作系统

传统做法是教 AI “怎么做”——写更好的 Prompt,提供更多示例。但这条路有天花板:规则会随代码演进变化,你永远追不上。

Harness 的思路不同:与其教 Agent 怎么做,不如让它自己验证做得对不对。

教学思路(有上限): 写更好的Prompt → 提供更多示例 → 规则文档 → ... Harness思路(无上限): 代码 + linter + 测试 → 机械执法 → 自动拦截问题

Harness 的五层架构

第一层:仓库即事实来源

  • AGENTS.md:导航地图(~100行),索引+指路,不是手册
  • docs/:架构文档、分层规则、业务上下文
  • 知识随代码版本化,Agent 打开项目即读到全部上下文

第二层:结构化知识体系

  • ARCHITECTURE.md:层级约束(Layer 0 → Layer 4+),依赖方向规则
  • DEVELOPMENT.md:构建/测试/lint 命令速查
  • design-docs/:组件级设计文档,按需加载

第三层:机械化验证层

验证顺序:build → lint-arch → test → verify,逐层递进,编译都过不了就别往下走。

第四层:多 Agent 编排层(详见下节)

第五层:自进化学习层(详见后文)

六、多 Agent 协作:上下文是最贵的资源

单 Agent 处理复杂任务时,上下文窗口会被代码 diff、编译错误、lint 报告逐渐填满。到第 40 次工具调用,早期的关键决策已被压缩丢失,Agent 开始做出自相矛盾的改动。

解法:两层架构——协调者永不写代码。

协调者 vs 执行者

任务复杂度与执行策略

改个 typo / 加行日志 → 直接执行(1次对话) 多文件一致性修改 → 委派子代理(干净上下文) 重构 / 新模块 → 子代理 + Worktree 隔离

判断法则:能用一句话描述且不含"和"字的,直接做;需要清单跟踪的,委派;需要设计权衡的,委派+隔离。

模型分级调用:成本节省 60-70%

# 简单任务,轻量模型 Agent(description="rename-user-field", model="haiku", prompt="...") # 复杂任务,重量级模型 + 隔离执行 Agent(description="refactor-auth-module", model="opus", isolation="worktree", prompt="...") # 交叉 Review,换一个架构完全不同的模型 review_result = Agent(description="Review: rate-limiter", model="codex", prompt=f"Review for logic correctness, edge cases, naming...\nChanges: {diff}")

一个中等复杂功能:Search Agent(Flash)检索代码 + Coder Agent(Opus)实现 + Review Agent(Codex)审查,总成本比全用顶级模型降低 60-70%,质量不打折扣。

七、Harness 自进化:从静态规则到动态学习

以上讲的 Harness 还是静态的——人定规则,Agent 遵守。真正有意思的是:Harness 能从 Agent 的失败里学东西。

三种记忆机制

情景记忆:记录具体教训

"macOS 下 /var 是 /private/var 的符号链接,会导致工作区路径比较失败"10秒加载,省下一整个重试循环。

程序记忆:记录成功步骤

“添加 API 端点的标准五步流程(创建类型→写服务方法→加 handler→注册路由→写测试),成功率 90%”

失败记忆:供 Critic 分析

同类错误出现 3+ 次 → 分析根因 → Refiner 更新 lint 规则 → 下一个 Agent 受益

轨迹编译:从 AI 到确定性脚本

当同一类任务被成功执行 3 次以上,且步骤高度一致,这个模式可以被"编译"成确定性脚本:

# 之前:每次都需要 LLM 推理 Agent("添加 API 端点 NAME=UserProfile") # 消耗 Token + 时间 # 编译后:直接执行脚本 make add-endpoint NAME=UserProfile # 毫秒级,零 LLM 成本

棘轮效应:每个成功模式变成永久基础设施,LLM 被释放去处理真正需要创造力的新问题。系统运行成本越来越低,能力越来越强。

八、四大概念的协作关系

把前面所有内容放在一张图上:

四者的关系可以用一句话概括:

大模型提供推理能力 → Skill 封装复用这些能力 → Command 触发执行特定工作流 → Agent 自主协调完成复杂任务

在 Harness 工程中,这四者被整合成一个可靠、可复用、自我进化的 AI 协作系统:

printf("hello world!");用户发出 Command(/doc self-evolve --title ...) ↓ Coordinator Agent 加载 Skill(writer + reviewer) ↓ Coder Agent(Opus)根据风格卡片生成初稿 ↓ Reviewer Agent(不同模型)评分 + 诊断(双维度,50+50分) ↓ 未达标(< 85/100) Writer 读取诊断报告,针对性修复(最多3轮) ↓ 达标或收敛 输出最终文章,Trace 记录经验 ↓ Harness Refiner 更新规则(下次更好)

九、实践路线图

从零开始,三步落地

第一步(立竿见影):写一个 AGENTS.md

  • ~100 行,只做索引和指路
  • 包含:架构层级规则、目录结构说明、常用命令速查
  • 效果:新会话不再需要重复解释背景

第二步(构建护栏):添加 lint 脚本

  • lint-deps:扫描 import 语句,检查层级违反
  • lint-quality:文件行数、禁用语句、命名规范
  • 关键:错误信息要足够清晰,说明违反了什么规则、为什么、如何修

第三步(验证闭环):接入 validate.py

  • 统一验证入口:build → lint-arch → test → verify
  • verify 脚本覆盖核心用户路径(不是"函数返回值对不对",而是"用户操作最终结果对不对")

不同规模项目的策略

总结

AI 原生开发不是"用 AI 帮你写几行代码",而是重新思考人与 AI 在工程体系中各自扮演的角色:

  • 人的价值从"写出正确的代码"变成了"设计出让 Agent 能可靠产出正确代码的环境"
  • 大模型是推理引擎,不是万能答案机——它需要"操作系统"
  • Skill 是可复用的能力单元,Command 是结构化的意图表达,Agent 是自主的执行者
  • Harness 把团队约定从"希望被遵守"变成"不遵守就报错"
  • 系统的终极形态:棘轮效应——每次执行都在强化,每次失败都在学习,越用越聪明

你不再需要自己拧每一颗螺丝。但你得确保流水线是对的。

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01教学内容

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

vx扫描下方二维码即可
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:

04视频和书籍PDF合集

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)

05行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!

0690+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)

07 deepseek部署包+技巧大全

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/14 21:29:22

KITTI数据集下载与使用指南:从获取到实践

1. KITTI数据集简介与下载准备 KITTI数据集是计算机视觉和自动驾驶领域最著名的公开数据集之一&#xff0c;由德国卡尔斯鲁厄理工学院和丰田美国研究院联合创建。这个数据集采集自德国卡尔斯鲁厄城市的真实道路场景&#xff0c;包含丰富的传感器数据&#xff0c;涵盖立体视觉、…

作者头像 李华
网站建设 2026/4/14 21:28:14

GoCelery并发模型解析:深入理解worker调度机制

GoCelery并发模型解析&#xff1a;深入理解worker调度机制 【免费下载链接】gocelery Celery Distributed Task Queue in Go 项目地址: https://gitcode.com/gh_mirrors/go/gocelery GoCelery作为Go语言实现的分布式任务队列&#xff0c;其核心优势在于高效的并发处理能…

作者头像 李华
网站建设 2026/4/14 21:27:19

next-routes源码解析:路由匹配与URL生成的内部机制

next-routes源码解析&#xff1a;路由匹配与URL生成的内部机制 【免费下载链接】next-routes Universal dynamic routes for Next.js 项目地址: https://gitcode.com/gh_mirrors/ne/next-routes next-routes是一个为Next.js提供通用动态路由功能的开源库&#xff0c;它通…

作者头像 李华
网站建设 2026/4/14 21:26:57

AI前沿动态高效追踪指南

AI前沿动态高效追踪指南 在 AI 技术爆炸式迭代的当下&#xff0c;信息过载已经成为从业者和学习者的核心痛点 —— 每天有上百篇新论文、数十个新模型发布&#xff0c;如何高效筛选高价值信息、精准追踪前沿动态&#xff0c;是跟上 AI 技术节奏的关键。 本文整理了 2026 年最新…

作者头像 李华
网站建设 2026/4/14 21:26:25

Whisper本地部署实战:从零搭建语音转文字系统

1. 为什么选择Whisper进行本地语音转文字 第一次接触语音转文字技术时&#xff0c;我被市面上各种云服务的高昂价格吓退了。直到发现OpenAI开源的Whisper模型&#xff0c;才真正找到了既经济实惠又能保护隐私的解决方案。Whisper最吸引我的地方在于它支持完全离线运行&#xff…

作者头像 李华
网站建设 2026/4/14 21:25:32

PDF-Extract-Kit-1.0从零部署:开源大模型PDF工具集在中小企业降本提效实践

PDF-Extract-Kit-1.0从零部署&#xff1a;开源大模型PDF工具集在中小企业降本提效实践 你是不是也经常被PDF文件搞得焦头烂额&#xff1f;财务要你从几十页的报表里提取表格数据&#xff0c;市场部需要把产品手册里的图片和公式单独整理出来&#xff0c;法务那边催着要合同里的…

作者头像 李华