news 2026/5/1 21:43:35

云端部署DeepSeek + 本机Cherry Studio接入

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
云端部署DeepSeek + 本机Cherry Studio接入

买好deepseek云服务,买本国的后可以使用学术加速,依然能访问外部资源:

访问http://IP:6699,在做上角还可以选择模型。

访问http://IP:6399/v1/models , 可以看到它都支持哪些models。同时它支持/v1/models的访问,说明它是满足openai规范的。

{"object":"list","data":[{"id":"deepseek-r1:14b","object":"model","created":1739341827,"owned_by":"library"},{"id":"deepseek-r1:8b","object":"model","created":1739341820,"owned_by":"library"},{"id":"deepseek-r1:7b","object":"model","created":1739341810,"owned_by":"library"},{"id":"deepseek-r1:1.5b","object":"model","created":1739341797,"owned_by":"library"}]}

访问http://IP:6399,显示如下,说明它用ollama运行的deepseek。

Ollama is running

现在我们使用Cherry Studio来连接云服务的Ollama提供的deepseek服务。

点击右上角设置,点击下方添加

自定义名字,类型选择OpenAI

api地址填入:http://IP:6399,API密钥自定义填写

然后点击管理,就能看到和云上相同的模型list,点击+号添加。

点击检测,显示连接成功:

返回首页,点击默认助手

点击选择模型:

选择我们之前添加的模型即可:

在话题框可以看到已经接入云服务:

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/30 23:02:33

FLUX.1-dev + Git安装配置手册:构建高效AI开发工作流

FLUX.1-dev Git 工作流构建:打造可复现的AI图像生成开发体系 在生成式AI迅猛发展的今天,文生图模型早已不再是“能不能画出来”的问题,而是演进为“能否稳定、高效、可控地生产符合预期的图像内容”。面对日益复杂的提示工程、微调实验和团…

作者头像 李华
网站建设 2026/4/30 23:29:02

音乐格式转换完全指南:快速解锁加密音频文件的终极方案

你是否曾经遇到过这样的情况:花了很多钱购买的音乐,却只能在特定的App里播放,想要换个播放器或者保存到本地,结果发现文件被加密了!那些.ncm、.qmc、.kgm格式的音乐文件,就像被限制在特定环境中的小鸟&…

作者头像 李华
网站建设 2026/4/30 23:03:27

数字乐谱实验室:网页版MIDI编辑终极指南

你是否曾经有过一段美妙的旋律在脑海中盘旋,却因为复杂的音乐软件而无法快速记录下来?或者想要为视频制作背景音乐,却被专业DAW的高门槛劝退?现在,这个免费网页版音乐制作工具将彻底改变你的创作体验,让你在…

作者头像 李华
网站建设 2026/4/30 4:04:32

AI企业级智能体远不止聊天,一张图揭秘AI如何革新软件与业务

过去两年,很多人都经历过类似的心路历程:第一次用到 ChatGPT,被“秒出答案”的流畅和智能惊艳到,觉得这是改变世界的技术拐点。但回到公司,一落地就开始尴尬:要么是开了个“AI助手”入口,几乎没…

作者头像 李华
网站建设 2026/4/30 23:03:07

如何快速掌握网页视频下载:m3u8下载器终极指南

如何快速掌握网页视频下载:m3u8下载器终极指南 【免费下载链接】m3u8-downloader m3u8 视频在线提取工具 流媒体下载 m3u8下载 桌面客户端 windows mac 项目地址: https://gitcode.com/gh_mirrors/m3u8/m3u8-downloader 还在为网页视频无法保存而苦恼吗&…

作者头像 李华
网站建设 2026/4/30 23:55:17

gpt-oss-20b镜像本地部署实战:16GB内存跑出GPT-4级体验

gpt-oss-20b镜像本地部署实战:16GB内存跑出GPT-4级体验 在一台仅配备16GB内存、没有独立显卡的普通笔记本上,能否流畅运行一个参数量超过200亿的语言模型?听起来像是天方夜谭。但如今,借助开源社区的持续创新与底层推理技术的突破…

作者头像 李华