news 2026/4/28 2:33:20

等了 15 个月,DeepSeek V4 终于来了——我只想说:黄仁勋的噩梦成真了

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
等了 15 个月,DeepSeek V4 终于来了——我只想说:黄仁勋的噩梦成真了

1.6 万亿参数 · 百万上下文标配 · 打到2毛钱 · 跑在华为芯片上

全球 AI 圈,

先说结论:这次 V4 的发布,有三件事让我睡不着

第一件:百万 token 上下文,从"高端奢侈品"变成"全系标配"。

一年前,谷歌 Gemini 1.5 靠 1M 上下文吊打所有人,定价贵得让人咋舌。 而今天,DeepSeek 把它做成了连最便宜的 Flash 版本都自带的基础功能。 就像你去买国产手机,发现 1TB 存储已经是入门款了——有点麻木,但确实震到了。

第二件:百万 token 的价格,被打到了 2 毛钱。

V4-Flash:0.2 元 / 百万 Tokens。 国内竞品里,Kimi-K2.6 缓存命中价 1.1 元,GLM-5.1 要 1.3~2 元。 DeepSeek 在上下文翻了数倍的前提下,价格反而是别人的零头

这不叫"价格战",这叫降维打击

第三件:黄仁勋说过"那将是灾难性的"——然后 DeepSeek 真的做到了。

V4 不仅跑在英伟达 GPU 上,还完成了华为昇腾 NPU 的全面适配,性能不降反升,部分场景加速接近翻倍。英伟达 CEO 黄仁勋曾公开说:"如果 DeepSeek 先在华为平台上发布,对我们国家将是灾难性的结果。"

现在,那个"灾难",发生了。


DeepSeek V4 到底是什么?用人话说一遍

DeepSeek V4 是深度求索(DeepSeek)于 2026 年 4 月 24 日发布的新一代旗舰大语言模型,全量开源,MIT 协议,附带 58 页技术报告。

这次发布了两个版本:

版本总参数激活参数上下文输入定价输出定价
V4-Pro(旗舰)1.6T49B1M tokens¥1/M¥2/M
V4-Flash(轻量)284B13B1M tokens¥0.2/M¥0.4/M

💡1M tokens 是什么概念?大约是 75 万个英文单词,或者相当于一部《红楼梦》全文的 3 倍。过去处理这么长的文本,要么超出模型限制,要么贵到令人咋舌。


技术上它做了什么?三个真正的突破

我知道很多人不关心架构细节,但这三个点你必须了解——因为它们直接解释了"为什么能这么便宜"。

突破 1:混合注意力机制,把长文本的计算量砍掉了 73%

处理 1M token 的超长上下文,最大的障碍是算力成本随长度平方增长——文本翻倍,算力翻四倍。

V4 用"混合注意力机制"(Hybrid Attention)解决了这个问题:将 token 压缩与稀疏注意力结合,让 1M 上下文的实际计算量只有上一代 V3.2 的27%,显存占用降至10%

用大白话说:同样的文本,V4 花的电费是 V3 的四分之一。这才是"打到 2 毛钱"的底气所在,而不是靠补贴烧钱。

突破 2:原生支持华为昇腾,把算力枷锁卸了

以往中国 AI 公司有一个隐形天花板:英伟达芯片受出口管制,顶级算力供不应求,推理成本居高不下。

DeepSeek V4 直接在华为昇腾 NPU 上完成了精细粒度的专家并行(EP)方案验证:

  • 通用推理任务:1.50~1.73 倍加速
  • 对延时敏感的 RL 推演 / Agent 场景:1.96 倍加速

这意味着什么?意味着 DeepSeek 可以不依赖英伟达,在国产算力上跑出更高性价比。官方也暗示:待下半年华为昇腾 950 超节点批量上市,Pro 版本的 API 价格还会大幅下调

这颗子弹的杀伤力,会在未来 6~12 个月慢慢释放。

突破 3:默认开启思维链,推理能力内置

V4 原生默认开启 Thinking Mode(深度推理模式),不需要用户额外切换。

配合后训练阶段引入的 10 个专项内部模型(数学、代码、Agent 等),V4 在推理类任务上的表现有了质的跃升。在 Artificial Analysis 综合评估(Elo)榜单上:

  • DeepSeek V4-Pro:1554 分(开源模型第一)
  • GLM-5.1:1535 分
  • Kimi K2.6:1484 分
  • DeepSeek V3.2:约 1199 分(V4 直接领先 355 分)

在算法竞赛类(Codeforces)和顶级推理类测评中,V4-Pro 甚至超过了 Claude-Opus-4.6 和 GPT-5.4 的标准配置版本。


但我也要泼一盆冷水

炸场归炸场,有几个点值得冷静看待:

1. 不如 R1 那次震撼。DeepSeek R1 发布时,全球都惊呼"没想到中国能做出来"。V4 这次更像是"意料之中的强",大家已经开始适应这个节奏了。

2. 没有多模态,纯文本。V4 不能看图、不能生视频,对于普通用户来说缺少直观冲击力。GPT-5、Gemini 都在大力推图文视频一体化,这是 V4 目前的明显短板。

3. 与顶级闭源模型仍有差距。官方技术报告罕见地坦诚:V4-Pro "略落后于 GPT-5.4 和 Gemini-3.1-Pro",差距大约在3~6 个月。开源最强,但还不是全球最强。

4. 500 亿融资传言悬而未决。据传 DeepSeek 正在洽谈 500 亿元融资,腾讯、阿里都在桌上,投前估值 3000 亿。官方至今没有正面回应——这份沉默,让人浮想联翩。


这件事真正的意义

V4 的发布,不只是一个模型发布。

它完成了三件事:

  1. 让百万上下文从"高端特性"变成行业基准,所有模型都必须跟进,否则显得落后
  2. 用国产算力跑出顶级性能,打破了"先进 AI 必须依赖英伟达"的潜意识
  3. 再次把 API 价格地板踩穿,逼得所有大模型厂商重新审视定价策略

中国 AI 产业的发展路径,从来就不是"弯道超车",而是另起一条道

DeepSeek 的打法是:我不一定比你最先进,但我能让同等能力的成本低一个数量级,然后开源给全世界用。这种打法,正在重塑全球 AI 的权力格局。


怎么上手体验?

  • 官网直接用:chat.deepseek.com(已更新为 V4)
  • API 调用:platform.deepseek.com
  • 开源模型下载:HuggingFace / ModelScope 搜索DeepSeek-V4,MIT 协议,商用免费
  • 技术报告:HuggingFace 官方仓库附带完整 58 页技术报告,值得一读

最后说一句

2023 年,大家还在讨论"中国 AI 能不能追上美国"。

2026 年,我们在讨论的是"DeepSeek 这次把价格打到多低"。

时代变了。


🔖觉得有用就点个赞吧,更多 AI 前沿内容持续更新~

💬评论区聊一聊:你觉得 DeepSeek 的"开源+极低价"策略,最终会不会把国内其他大模型逼死?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/28 2:23:22

STM32F407实战:用正点原子LoRa模块做个无线数据采集器(附完整代码)

STM32F407实战:构建基于LoRa的无线数据采集系统 项目背景与核心需求 在工业物联网和智慧农业领域,稳定可靠的无线数据传输一直是技术难点。传统Wi-Fi和蓝牙受限于传输距离和功耗,而蜂窝网络又面临高成本和复杂部署的挑战。正点原子推出的LoRa…

作者头像 李华
网站建设 2026/4/28 2:23:21

RePKG:Wallpaper Engine资源提取与纹理转换的终极工具

RePKG:Wallpaper Engine资源提取与纹理转换的终极工具 【免费下载链接】repkg Wallpaper engine PKG extractor/TEX to image converter 项目地址: https://gitcode.com/gh_mirrors/re/repkg RePKG是一款专为Wallpaper Engine用户设计的强大工具,…

作者头像 李华
网站建设 2026/4/28 2:21:20

阅读APP书源配置终极指南:3种导入方法快速上手

阅读APP书源配置终极指南:3种导入方法快速上手 【免费下载链接】Yuedu 📚「阅读」自用书源分享 项目地址: https://gitcode.com/gh_mirrors/yu/Yuedu 还在为找不到心仪的小说资源而烦恼吗?每次手动配置书源都让你感到繁琐复杂&#xf…

作者头像 李华
网站建设 2026/4/28 2:15:30

树莓派RP2040在工业PLC中的创新应用

1. Iono RP工业PLC概述:基于树莓派RP2040的创新设计在工业自动化领域,可编程逻辑控制器(PLC)长期被传统大厂垄断,而Sfera Labs推出的Iono RP系列打破了这一格局。这款采用树莓派RP2040微控制器的紧凑型PLC模块,将开源硬件生态带入…

作者头像 李华