news 2026/5/5 15:37:36

手把手教你本地部署OpenClaw大模型,小白也能轻松上手(收藏版)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
手把手教你本地部署OpenClaw大模型,小白也能轻松上手(收藏版)

本文详细介绍了如何在本地部署OpenClaw大模型,包括安装Node.js和Ollama、选择合适的模型(如kimi-k2.5)、配置模型服务以及使用OpenClaw进行飞书和WPS等应用的操作。文章强调部署过程简单,适合小白和程序员学习,并提供了相关资源和交流渠道。

最近OpenClaw火得不行,很多人都在问怎么部署。今天就手把手教大家在本地跑起来,其实真的没那么复杂。

我这次演示是在自己开发机mac pro的进行的,前面大家需要安装好node和ollama,各自链接如下:

  • https://nodejs.org/en
  • https://ollama.com/download

这部分比较基础就省略了,接下来咱们使用ollama来部署OpenClaw,非常简单。整个过程大概10分钟就能搞定,主要就是装个软件、配个模型,然后就能用了。

第一步 安装OpenClaw

安装过程分Mac和Windows两种,都很简单,一行命令的事儿:

  • mac系统
curl -fsSL https://openclaw.ai/install.sh | bash
  • windows

其实我下午也在自己windows台式机也把这套方案跑通了,Windows用户也别担心,一样能玩转:

iwr-usebhttps://openclaw.ai/install.ps1|iex

接下来一路选择yes,基本都是默认配置就行,不需要特别改什么。

最后显示安装成功:

看到这个界面就说明第一步完成了,是不是特别简单?

第二步 使用Ollama配置模型服务

这一步是关键,模型选不好后面用起来会很难受。OpenClaw 需要较大的上下文长度(Context Length)来完成任务。建议使用至少64k tokens的上下文长度。不然处理复杂任务的时候容易翻车。

我们可以使用Ollama来启动模型,然后暴露给OpenClaw使用

因为我这个机器没有现存,所以直接使用官方的cloud云服务。显存不够的朋友也别慌,云服务完全够用。

以下是几款与 OpenClaw 配合良好的模型:

模型描述
qwen3-coder针对编程任务进行了优化
glm-4.7强大的通用模型
glm-4.7-flash性能与速度的平衡之选
gpt-oss:20b兼顾性能与速度
gpt-oss:120b能力更强,表现更佳

Ollama 的云端模型提供免费入门额度。您可以在 ollama.com 搜索更多模型。

最近上线的云端模型也不少,可以看看:

模型描述
kimi-k2.5拥有 1T 参数的强大模型,适用于智能体(Agent)任务
minimax-m2.1出色的多语言处理能力
glm-4.7强大的通用模型
gpt-oss:20b兼顾性能与速度
gpt-oss:120b能力更强,表现更佳

更多模型请访问 ollama.com 查看。

我们选择使用kimi-k2.5,这个模型最近很火,各种榜单都刷爆了,实测下来确实不错。

接下来启动kimi-k2.5服务,执行下面这条命令:

ollama run kimi-k2.5:cloud

如果报错:Error: 401 Unauthorized

在这里插入图片描述

别紧张,这是因为你还没登录。需要在网页端登录ollama账号即可,去官网注册个账号就行,免费的。

如果大家显存够用的话也可以使用本地部署的模型,本地跑会更快一些,不过对机器配置要求比较高。

第三步 使用Ollama启动OpenClaw

到这一步就能看到效果了。通过Ollama启动OpenClaw并进行配置,首先是配置大模型服务,我们选择上面的kimi-k2.5:

ollama launch openclaw--config

接下来我们可以安装一些skills,这个很重要,相当于给OpenClaw装插件,装了才能干活。

skills安装多了,安装过程有点慢,大家可以选择性按需安装。我第一次图省事全装了,结果等了好久,后来发现根本用不到那么多…

为了省去其他的配置,我们尽量选择默认,别瞎折腾,默认配置就挺好用的。

最后我们选择在网页打开OpenClaw,浏览器会自动弹出来。

在对话框测试了下,我们可以看到部署成功了(OpenClaw+模型服务正常运行)。到这里基础配置就算完成了,但这才是刚开始。

第四步 使用OpenClaw:飞书/操作应用

接入飞书并对话

部署到这里有点懵了,这和平时的对话应用有什么区别呢?我观测了发现国内应用和OpenClaw连体部署最多的是飞书,接入飞书之后就能在工作场景里用了,比如让它帮你查文档、发消息什么的。

下面大家可以参考向阳乔木大佬的知乎文章来部署就可以了,我这里不做赘述了,人家写得比我详细多了:

文章标题:OpenClaw(Clawdbot) + Kimi 2.5 最新手把手教程,附飞书接入指南和 700+ Skill资源

文章链接:https://zhuanlan.zhihu.com/p/2000938895328698389

下面放一下对接的效果图,在飞书里直接@机器人就能用,挺方便的:

操作本地WPS应用

这个是我在windows的效果图,这个功能真的有点炸裂,直接能控制电脑上的应用。

可以帮我打开windows上的WPS应用,我就随口一说,它就真的去执行了:

真的帮我打开了,我当时都懵了:

具体原理如下图:通过一行命令打开了wps,然后得到一个句柄,通过这个变量可以持续操作打开后的进程。本质上就是调用系统命令,但组合起来就很强大了。

还有一个操作就是:我让他打开WPS并且创建一个word,写一个请假条。这种办公场景特别实用,以后写周报啥的都能让它帮忙了。

我在mac上也可以执行同样的操作,跨平台没问题:

股市调研

我看到还可以控制浏览器进行搜索,大家可以研究下,比如下面获取最新的股市。这个功能对搞投资的朋友应该挺有用,能实时抓取数据。

总的来说,OpenClaw这套方案还是挺香的,部署简单,功能强大。特别是结合kimi-k2.5之后,Agent能力确实上了一个台阶。如果你也想试试,按照上面的步骤来就行,基本不会踩坑。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2026 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/5 15:36:26

将Hermes Agent工具连接到Taotoken实现自定义模型调用

将Hermes Agent工具连接到Taotoken实现自定义模型调用 1. 准备工作 在开始配置之前,请确保您已经拥有以下资源:一个有效的Taotoken API Key,以及目标模型的ID。这些信息可以在Taotoken控制台的"API Keys"和"模型广场"页…

作者头像 李华
网站建设 2026/5/5 15:33:29

2026AI图像革命:GPT-Image-2文字渲染新突破

在 2026 年的图像生成领域里,很多人已经不再满足于“能出图”,而是开始关注更细的能力:图里能不能把文字真正写对。 因为一旦涉及海报、封面、广告物料、产品图、信息图、UI 示例,文字渲染就成了决定模型实用性的关键环节。很多图…

作者头像 李华
网站建设 2026/5/5 15:30:35

3种方法解决PUBG压枪难题:罗技鼠标宏完整实战指南

3种方法解决PUBG压枪难题:罗技鼠标宏完整实战指南 【免费下载链接】logitech-pubg PUBG no recoil script for Logitech gaming mouse / 绝地求生 罗技 鼠标宏 项目地址: https://gitcode.com/gh_mirrors/lo/logitech-pubg 还在为《绝地求生》中难以控制的武…

作者头像 李华
网站建设 2026/5/5 15:30:33

通过 Taotoken 实现 Ubuntu 服务中 AI 模块的快速容灾切换

通过 Taotoken 实现 Ubuntu 服务中 AI 模块的快速容灾切换 1. 生产环境中的 AI 服务稳定性挑战 在 Ubuntu 服务器上部署的 AI 服务模块往往需要持续稳定地响应业务请求。当依赖单一模型供应商时,服务可能因供应商侧的网络波动、配额耗尽或临时维护而中断。传统解决…

作者头像 李华
网站建设 2026/5/5 15:30:15

5步精通League-Toolkit:英雄联盟客户端全能工具箱的终极攻略

5步精通League-Toolkit:英雄联盟客户端全能工具箱的终极攻略 【免费下载链接】League-Toolkit An all-in-one toolkit for LeagueClient. Gathering power 🚀. 项目地址: https://gitcode.com/gh_mirrors/le/League-Toolkit 在英雄联盟的竞技世界…

作者头像 李华