news 2026/2/12 22:25:57

Agent Skills 这项技术如何“教会”AI 助手做专业化工作

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Agent Skills 这项技术如何“教会”AI 助手做专业化工作

Anthropic 周三表示,将把其Agent Skills技术作为开放标准发布。这是一项战略押注:通过分享其让 AI 助手更“能干”的方法,Anthropic 希望巩固自己在快速演进的企业软件市场中的位置。

这家总部位于旧金山的人工智能公司同时为企业客户发布了组织级管理工具,并上线了一个“合作伙伴技能目录”,其中包含来自Atlassian、Figma、Canva、Stripe、Notion 和 Zapier等公司构建的技能。

这些动作标志着 Anthropic 对一项技术的重大扩展——该技术最初于 10 月推出。原本偏小众的开发者功能,如今被转化为基础设施,并且看起来正准备成为行业标准。

“我们正在把 Agent Skills 作为一个独立的开放标准发布,并在 https://agentskills.io 提供规范与参考 SDK。”Anthropic 产品经理 Mahesh Murag 在接受 VentureBeat 采访时表示。“微软已经在 VS Code 和 GitHub 中采用了 Agent Skills;Cursor、Goose、Amp、OpenCode 等流行编码代理也已采用。我们也正与生态中的其他参与者积极沟通。”


深入理解:这项技术如何“教会”AI 助手做专业化工作

“技能(skills)”的核心是一组文件夹,里面包含指令、脚本与资源,用来让 AI 系统能够稳定一致地完成特定任务。它的目标是:不再要求用户每次都手写一大段复杂提示词来让 AI 做专业工作,而是把流程性知识打包成可复用模块。

这一概念直指大模型的一个根本限制:大模型具备广泛的通用知识,但往往缺少完成专业工作所需的具体流程性经验。例如,一个用于制作 PowerPoint 的技能可能包含偏好的格式规范、幻灯片结构指南与质量标准——这些信息只有在 AI 需要制作演示文稿时才会被加载。

Anthropic 将系统设计为其所称的“渐进式披露(progressive disclosure)”。每个技能在上下文窗口中被摘要时只占用几十个 token,只有当任务需要更细节时才加载完整内容。这种架构选择让组织能够部署庞大的技能库,而不会把 AI 的工作记忆压爆。


《财富》500 强已在法务、金融与会计场景中使用技能

新发布的企业管理功能允许 Anthropic 的TeamEnterprise套餐管理员集中配置技能,控制全组织可用的工作流,同时允许员工个性化自己的使用体验。

Murag 表示:“企业客户已经在生产环境中使用技能,覆盖编码工作流以及法务、金融、会计、数据科学等业务职能。反馈很积极,因为技能让他们能把 Claude 个性化为真正符合自身工作方式的助手,从而更快得到高质量输出。”

据 Murag 介绍,社区反响超出预期:“我们的技能仓库在 GitHub 上已经超过 2 万星标,有数以万计的社区创建与共享技能。”


Atlassian、Figma、Stripe、Zapier 等在目录上线时即入驻

Anthropic 上线时即带来 10 家合作伙伴的技能,阵容堪称现代企业软件的“名人录”。Jira 与 Confluence 的开发商 Atlassian,与设计工具 Figma、Canva,支付基础设施公司 Stripe,以及自动化平台 Zapier 的加入,暗示 Anthropic 正把 Skills 定位为Claude 与企业既有应用之间的“连接组织”

这些合作伙伴的商业安排更多聚焦生态建设,而非立即变现。

Murag 解释:“为目录构建技能的合作伙伴,是为了增强 Claude 与其平台协作的方式。这是一种互利的生态关系,类似 MCP 连接器合作。目前没有分成安排。”

在筛选新合作伙伴方面,Anthropic 采取谨慎路线。“我们先从成熟合作伙伴开始,同时在扩展过程中制定更正式的标准,”Murag 说,“我们希望为企业提供高价值的技能供给,同时也让合作伙伴产品的优势更突出。”

值得注意的是,Anthropic 并未对该能力额外收费:“技能可在 Claude 的所有入口使用:Claude.ai、Claude Code、Claude Agent SDK 以及 API。它包含在 Max、Pro、Team 与 Enterprise 套餐中,不额外收费。API 使用按标准 API 定价计费。”Murag 表示。


为何 Anthropic 要把竞争优势“送给”OpenAI 和 Google

将 Skills 作为开放标准发布,是一种经过计算的战略选择。通过让技能跨 AI 平台可移植,Anthropic 押注:生态增长带来的收益会超过专有锁定带来的收益

从现象看,这一策略正在奏效。文章称,OpenAI 已在ChatGPT与其Codex CLI 工具中悄然采用结构几乎相同的架构。开发者 Elias Judin 本月早些时候发现了这一实现:目录中包含与 Anthropic 规范相呼应的技能文件——同样的文件命名约定、同样的元数据格式、同样的目录组织结构。

这种趋同表明:行业或许已经就一个棘手问题找到了共同答案——如何在不做昂贵模型微调的前提下,让 AI 助手在专业工作上做到稳定可靠?

时机也与更广泛的标准化努力相吻合。12 月 9 日,Anthropic 将其Model Context Protocol(MCP)捐赠给 Linux 基金会;Anthropic 与 OpenAI 还与 Block 共同发起Agentic AI Foundation。Google、Microsoft 与 AWS 作为成员加入。该基金会将负责多个开放规范的管理,而 Skills 看起来自然属于这股标准化浪潮的一部分。

Murag 还指出:“我们也看到 skills 与 MCP servers 的互补性。MCP 提供与外部软件与数据的安全连接;skills 提供有效使用这些工具所需的流程性知识。那些在 MCP 集成上投入较多的合作伙伴,自然成为我们的起点。”


AI 行业从“专用代理”转向“一个会学会一切的助手”

Skills 方法在理念上改变了行业对“让 AI 更强”的看法。传统路径是为不同用例构建不同专用代理——客服代理、编程代理、研究代理。Skills 暗示了另一种模型:一个通用代理 + 一套专门能力库

文章引用 Anthropic 研究员 Barry Zhang 在上个月某行业会议上的观点(据 Business Insider 报道):“我们过去以为不同领域的代理会非常不同;但底层的代理其实比我们想象得更通用。”

这对企业软件开发有明显影响:组织不必构建维护多个专用 AI 系统,而是可以投资于创建与管理技能,把机构知识与最佳实践编码进去。

Anthropic 的内部研究也支持这种做法。该公司 12 月初发布的一项研究称,其工程师在 60% 的工作中使用 Claude,自我报告的生产力提升达到 50%——是前一年的两到三倍。值得注意的是,27% 的 Claude 辅助工作属于“若无 AI 就不会去做”的任务,包括构建内部工具、撰写文档、以及处理员工口中的“papercuts”(长期被搁置的小型体验改进问题)。


企业部署的隐忧:安全风险与技能退化

Skills 框架并非没有潜在问题。随着 skills 让 AI 更强,如何维持人的专业能力成为问题。Anthropic 内部研究发现:skills 让工程师能跨域工作(例如后端开发做 UI、研究人员做数据可视化),但也有人担心技能退化。

一位 Anthropic 工程师在公司内部调查中说:“当产出变得如此容易与快速时,真正花时间去学习反而越来越难。”

安全同样是焦点。skills 通过指令与代码赋予 Claude 新能力,这意味着恶意技能理论上可能引入漏洞。Anthropic 建议:只安装来自可信来源的技能,并对来源不明的技能进行彻底审计。

开放标准也带来治理问题。虽然 Anthropic 已发布规范并上线参考 SDK,但长期由谁来管理该标准仍不明确:它会归属 Agentic AI Foundation,还是需要独立治理结构,仍是未知数。


Anthropic 真正的产品也许不是 Claude,而是所有人赖以构建的基础设施

Skills 的发展轨迹揭示了 Anthropic 的野心。两个月前,这家公司发布的是一个看起来像开发者工具的功能;如今它已经成为一个规范:微软把它做进 VS Code,OpenAI 在 ChatGPT 中复刻,企业软件巨头纷纷竞相支持。

这种模式与过往重塑科技行业的策略相似:从 Red Hat 到 Google,许多公司发现开放标准可能比专有技术更有价值——定义行业如何运作的公司往往比试图独占技术的公司捕获更多价值。

对评估 AI 投资的企业技术负责人而言,信息很直接:skills 正在成为基础设施。组织今天编码进 skills 的专业经验,将决定未来 AI 助手的工作质量——无论其背后使用的是哪一家模型。

Anthropic、OpenAI 与 Google 的竞争仍将继续。但在“如何让 AI 助手稳定胜任专业工作”这个问题上,行业已经悄然趋同——而答案来自那个把它开放出去的公司。


二、解读(把这条新闻放进“企业 AI 基础设施化”的脉络里)

1)这篇新闻真正讲的不是“又一个功能”,而是“可移植的工作方法”

文中对 skills 的定义非常关键:把流程性知识模块化、文件化、可复用。这意味着企业不再把能力押在“某个模型版本是否更聪明”,而是押在“我能否把组织最佳实践沉淀为可加载的操作规范”。

换句话说,skills 像是把“提示词工程”从个人手艺变成组织资产:可版本管理、可审计、可共享、可移植。

2)“渐进式披露”解决的是企业落地的硬约束:上下文与成本

企业最大的问题往往不是“能不能做”,而是“能不能在可控成本与可控稳定性下持续做”。文中强调每个技能摘要只占几十 token,需要时才加载细节,指向的是一种工程化取舍:

  • 平时:只带最小提示,提高速度与稳定性
  • 需要时:再展开细节,保证质量与一致性

这比“把 SOP 全塞进系统提示词”更符合大规模部署的现实。

3)开放标准是“生态位战争”:争夺企业工作流的定义权

新闻里最敏感的一段,是 OpenAI 被发现“结构性复刻”同类架构。无论细节如何,这至少说明两点:

  • 行业在寻找同一个解法:不靠频繁微调也能稳定专业输出
  • 标准一旦形成,会快速外溢:谁定义规范,谁就更可能成为“企业 AI 的底座”

Anthropic 选择开放,逻辑类似“用标准换市场”:短期看似让利,长期可能把自己推到生态枢纽位置。

4)skills 与 MCP 的关系:一个管“连”,一个管“会用”

文中点出“互补性”很到位:

  • MCP:更像安全与权限框架,让 AI 能连接到外部工具与数据
  • skills:更像操作手册与流程剧本,让 AI 知道如何正确、合规、高质量地使用这些连接

从企业视角看,这组合相当于:
把权限(能做什么)与程序(应该怎么做)分离治理,更利于审计与扩展。

5)风险提示并非点缀:它决定企业是否敢“规模化”

新闻最后提出的两个风险,其实是企业最在意的两类:

  • 安全风险:技能包含指令与代码,天然需要供应链安全思路(来源、审计、签名、权限最小化等)
  • 技能退化:当 AI 把“做”变得容易,人是否还会“学会做”?这关系到组织的长期能力与岗位结构

也因此,skills 的成功不只靠技术,还靠治理:谁能把“技能开发—审核—发布—回滚—权限控制”流程做得像软件工程一样可靠,谁就更可能吃到企业市场红利。


版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/6 11:13:21

LangFlow实现简历筛选自动化的可行性分析

LangFlow实现简历筛选自动化的可行性分析 在企业招聘高峰期,HR团队常常面临数百份简历的初筛压力。传统的处理方式依赖人工逐份阅读、提取关键信息并判断匹配度,不仅耗时耗力,还容易因主观偏好导致评估偏差。随着大语言模型(LLM&a…

作者头像 李华
网站建设 2026/2/12 1:24:55

ESPectre:不用摄像头,也能在ESP32实现高精度人体移动检测的 Wi-Fi 方案

ESPectre:不用摄像头,也能在ESP32实现高精度人体移动检测的 Wi-Fi 方案 关键词:ESPectre、Wi-Fi CSI、ESP32、ESPHome、Home Assistant、无摄像头运动检测 最近在逛 GitHub 的时候,发现了一个非常有意思的智能家居项目 —— ESPectre。 它不靠摄像头、不用麦克风,只利用 W…

作者头像 李华
网站建设 2026/2/12 3:25:38

LangFlow构建个性化推荐引擎的尝试

LangFlow构建个性化推荐引擎的尝试 在电商、内容平台和智能服务日益依赖“千人千面”体验的今天,如何快速构建一个能理解用户意图、融合多源数据并生成自然语言推荐结果的系统,成了许多团队面临的现实挑战。传统推荐系统多基于协同过滤或深度学习模型&am…

作者头像 李华
网站建设 2026/2/1 18:07:09

LangFlow内置调试器使用技巧:精准定位流程卡点

LangFlow内置调试器使用技巧:精准定位流程卡点 在构建大语言模型(LLM)驱动的应用时,你是否曾遇到这样的场景:流程看似完整,点击“运行”后却迟迟得不到预期结果?或者输出突然中断,日…

作者头像 李华
网站建设 2026/2/10 18:18:49

LangFlow开源镜像上线,支持一键部署与扩展

LangFlow开源镜像上线,支持一键部署与扩展 在大语言模型(LLM)技术飞速演进的今天,越来越多的企业和个人开发者试图将AI能力快速集成到实际应用中。LangChain作为连接语言模型与外部系统的桥梁,极大提升了构建智能体、…

作者头像 李华
网站建设 2026/2/7 7:15:49

无需编码!LangFlow图形化界面让大模型工作流设计更高效

无需编码!LangFlow图形化界面让大模型工作流设计更高效 在AI应用开发日益普及的今天,越来越多的产品经理、业务分析师甚至非技术背景的研究人员都希望快速验证一个基于大语言模型(LLM)的创意——比如“能不能用AI自动解析合同条款…

作者头像 李华