引言
AI 的“员工手册”
在与 AI 协作的过程中,你是否厌倦了每次都要重复粘贴冗长的提示词(Prompt)?或者,你是否发现 AI 虽然聪明,但总是记不住你团队特定的代码规范、文档格式或业务流程?或者它总是记住了你的一种风格,而听不懂让它改变成另一种风格的指令?
如果说模型(Model)是 AI 的大脑,那么Agent Skills(智能体技能,这里翻译成智能体纲要,更贴合本义)就是你为这个大脑编写的“员工手册”和“SOP(标准作业程序)”。
Anthropic 最新推出的“智能体纲要”不仅仅是一个功能更新,它代表了 AI 应用开发的又一次范式转移。本文将带你从零开始理解“纲要“,揭示其与 MCP 协议并驾齐驱的战略意义,并剖析 Anthropic 为何总是能在标准制定上展现出超越 OpenAI 的系统工程能力。
入门:什么是智能体纲要(Agent Skills)?
简单来说,智能体纲要(Agent Skills)是一种让Claude(或作为一个标准,任何其它大模型应用,如GPT、Gemini,虽然它们尚未宣布对智能体纲要的支持,但其实也不需要官方支持,就像MCP一样)能够按需加载、自主调用的“能力包”。
它本质上是一个文件夹,里面包含了说明文档(Markdown)、脚本(Python/Bash)和参考资料。与传统的 Prompt 工程不同,Skills 不是一次性塞给模型的对话指令,而是持久化、模块化的专业知识库。
它的核心魔法:渐进式披露(Progressive Disclosure),这是 Agent Skills 最具革命性的设计。
**第一层Level 1:**元数据(Metadata)层。当你安装了一个 Skill,Claude 最初只加载它的名字和描述(Description)。这只占用极少的 Token(约 30-50 个)。此时,Claude 只是“知道”自己有这个能力,就像新员工知道公司有一本《财务报销手册》,但还没打开看。
**第二层Level 2:**指令加载(Instructions)层。只有当你的对话触发了特定需求(例如“帮我处理这份发票”),Claude 才会自主决定去读取该 Skill 的详细指令文件(SKILL.md)。
**第三层Level 3:**资源与执行(Resources & Execution)层。如果任务需要更复杂的操作(如运行代码或查阅巨大的数据库表结构),Claude 会进一步加载脚本或参考文件。
这种机制让你可以给 AI 安装成百上千个技能,而不会撑爆它的上下文窗口(Context Window),也不会让它变笨或变慢。
进阶:如何构建你的第一个 Skill
构建 Skill 不需要复杂的编程背景,它的核心是结构化的文档。
1. 标准解剖学
一个标准的 Skill 文件夹结构如下,:
- my-skill/
- SKILL.md # 核心:必须包含 YAML 头部和详细指令
- scripts/ # 可选:Python 或 Bash 脚本(让 AI 真的去干活,而不是光说不练)
- reference.md # 可选:参考资料(如品牌配色表、API 文档)
2. 编写SKILL.md的关键
SKILL.md的头部(YAML Frontmatter)是最重要的部分,尤其是Description字段。这是 AI 判断何时调用该技能的唯一依据。
3. 实战:从“聊天”到“行动”
在 Claude Code 或 CLI 环境中,Skills 的强大之处在于它可以包含可执行代码。例如,你可以创建一个“数据清洗 Skill”。当你说“分析这个 CSV”时,Skill 不会让 Claude 瞎编数据,而是会指示它:
调用内置的 Python 脚本读取文件;
执行Pandas 清洗命令;
返回清洗后的图表。这利用了 Claude 的沙盒执行环境,保证了结果的精确性。
精通:Skill 与 MCP 的双剑合璧
很多人会问:Anthropic 之前不是刚发布了 MCP(模型上下文协议)吗?Skill 和 MCP 到底什么关系?
这是一个极其重要的战略区分。如果把 AI 智能体比作一个数字员工:
MCP 是“手和眼” (Connects Data):MCP 负责连接外部世界。它像 USB 接口一样,让 Claude 能“看到”你的 GitHub 代码库、PostgreSQL 数据库或 Slack 消息。
Agent Skills 是“大脑中的流程” (Teaches Process):Skill 负责教导Claude 如何处理这些数据。MCP 给了 Claude 访问数据库的权限,但 Skill 告诉 Claude:“查询数据库时,必须先检查最近 24 小时的记录,并按部门汇总生成报表”。
为什么说 Skills 不亚于 MCP?MCP 解决了“数据孤岛”问题,但如果没有 Skills,AI 面对海量数据依然不知所措。Skills 实际上定义了“业务逻辑”。在未来企业级应用中,最强大的模式是MCP + Skills:
- 场景:自动化代码审查。
- MCP:连接 GitHub,拉取最新的 Pull Request 代码。
- Skill:包含团队的《代码审查规范》,指示 Claude 检查变量命名是否驼峰式、是否包含单元测试。
- 结果:Claude 不仅读到了代码(MCP),还像资深工程师一样按规范进行了评审(Skill)。
洞察:Anthropic 的“降维打击”
在 OpenAI 还在通过 GPTs Store 推广封装好的应用时,Anthropic 走了一条截然不同的路:制定底层标准。
1. 为什么 Anthropic 在标准制定上超越了 OpenAI?
OpenAI 的 GPTs 更像是一个个独立的“围墙花园”,用户很难将一个 GPT 的能力无缝转移到另一个环境。而 Anthropic 的策略体现了更深厚的系统工程思维 (Systems Engineering):
- 通用性与可移植性:Agent Skill 只是一个文件夹和 Markdown 文件。它不依赖于 Anthropic 的封闭平台,你可以把这个文件夹放在本地、传到服务器,甚至未来可能被其他 LLM 读取。这种“文件即配置”的极简主义,是开发者最喜欢的通用标准。
- 基础设施化(Infrastructure-first):无论是 MCP 还是 Skills,Anthropic 都在做“基建”。MCP 试图统一 AI 连接数据的接口(类似 USB-C 标准),Skills 试图统一 AI 学习业务流程的格式。
- 开发者体验(DX)的胜利:来源资料中反复提到,Claude Code、CLI 工具、以及与 VS Code 的集成,展现了极高的工程质量。Anthropic 似乎比 OpenAI 更懂程序员和企业需要什么样的“脚手架”(Scaffolding/Harness)来让 AI 稳定工作,而不仅仅是追求模型跑分的提升。
2. 这种能力从何而来?
Anthropic 的这种“标准制定者”气质并非偶然:
- 安全与可控的基因:Anthropic 成立之初就强调 AI 安全(AI Safety)。要实现安全,就必须对 AI 的行为有极强的控制力。Skills 和 MCP 本质上都是为了规范AI 的行为,防止其在接触外部数据(MCP)或执行任务(Skills)时失控。这种对“可控性”的执着,倒逼出了更严谨的架构设计。
- 面向企业实战的定位:OpenAI 很多时候在追求 AGI 的“通用神迹”,而 Anthropic(尤其是 Claude 3.5/4.5 时代)非常务实地瞄准了“企业工作流”。企业需要的不是一个会写诗的聊天机器人,而是一个能听懂人话、能按 SOP 办事、能连接内部系统的可靠代理。Skills + MCP 正是为此量身定做。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。