本文探讨了AI在大语言模型(LLM)和能量模型(EBM)上的发展差异。随着AI应用从消费级向高要求领域扩展,如自动驾驶、芯片设计等,LLM的“猜测”机制逐渐暴露出其不可靠性。EBM模型通过构建“能量地形”来寻找合理路径,更适用于需要验证、约束和结构关系的任务。文章强调,AI的未来价值在于其“责任感和可靠性”,而非仅仅是语言能力。这一观点对于理解AI技术发展趋势和投资方向具有重要意义。
一、在关键系统里,“大致正确”其实等于错误
Eve 在访谈里用了一个很直接的类比:如果是一辆 AI 驾驶的车,你愿不愿意坐进去?如果是一架 AI 控制的飞机,你还会不会觉得“偶尔幻觉一下也没关系”?
这个问题听上去有点极端,但本质很清楚。今天很多人谈 AI,默认的评价标准是“能不能把活干出来”;而在关键系统里,真正重要的标准是:它是不是能持续、稳定、可验证地干对。
这也是为什么很多 LLM 的使用方式,本质上都是“先生成,再检查”。
比如让模型写代码,然后你再跑测试;让模型给出分析,再让工程师复核;让模型生成逻辑,再用外部验证器去检查。这套方式当然有用,而且现在已经广泛发生在真实世界里。但问题是,它更像一种事后补救机制,而不是从架构层面保证正确性。
换句话说,今天的主流大模型很像一个非常会说、非常会猜、而且经常能猜中的系统。可一旦任务进入“不能靠猜”的领域,你就会发现,“输出像样”和“底层可靠”其实是两回事。
所以 Eve 所在公司切入的不是“让 AI 更会写”,而是“让 AI 更能负责”。她把这件事总结成一句话:未来真正值钱的 AI,不只是 generative AI,而是deterministic AI、verifiable AI。
这个判断是否最终成立,还需要时间验证,但问题本身是对的:如果我们真的想把 AI 放进关键基础设施,那正确性就不能只是一个事后补丁。
二、EBM 到底是什么?先别被术语吓到
EBM,全称是Energy-Based Model,中文通常翻译成“能量模型”或“基于能量的模型”。
这个名字听起来很学术,但核心直觉并不难。Eve 的解释来自物理学:很多系统的自然状态,本质上都在趋向一个“更低能量”的位置。你累了一天,回到家大概率会倒在沙发上,而不是突然开始在客厅里冲刺跑;一个球会滚到低处,而不是稳定地停在高处。
如果把这种直觉画成一张地图,你会得到一个“能量地形”:
- • 高处代表不太可能发生的状态;
- • 低处代表更稳定、更可能发生的状态;
- • 模型要做的,是学会这张地形,然后在里面找到合理的路径。
Eve 在访谈里举了一个非常形象的例子:如果系统观察了你很多天,就可能学到一件事,当你做完很多播客、非常疲惫地回家时,你更有可能出现在沙发上,而不是厨房里折腾半天。于是,“你瘫在沙发上”这个状态,就会成为能量地图里的低点。
这套说法的关键,不是“沙发”这个例子本身,而是它背后的建模方式:模型不再只是顺着序列一步步往后猜,而是试图先形成一个整体地形,再在这个地形里寻找最合理的落点。
这也是 Eve 为什么反复强调:EBM 不该被理解为“另一个会聊天的模型”,而应该被理解为一种更适合建模状态、约束和结构关系的方式。
三、她为什么认为 LLM 不适合承担这类任务?
访谈里最核心的冲突,其实不是“LLM 好不好”,而是“LLM 擅长的事情,和我们真正想让 AI 负责的事情,是不是同一种问题”。
Eve 的答案是否定的。
她认为,LLM 的根本工作方式,是基于 token 序列去预测下一个 token。这种机制在语言任务里极其强大,因为语言天然就是序列化的信息流:前面的词,会影响后面的词;前面的句子,会影响后面的句子。
但很多现实任务并不是语言问题。
例如空间推理、形式化验证、工程约束、硬件行为、系统控制,这些任务的核心并不是“下一句话该怎么接”,而是“这个状态空间里,哪些路径成立,哪些路径根本不能走”。
为了说明这个差异,Eve 用了一个很好的比喻:
LLM 像是在城市里蒙着眼、一拐一拐地走路,每次只能决定下一步往哪;EBM 则更像站在高处看地图,先看到全局,再决定怎么走。
她的意思不是说 LLM 完全没有推理能力,而是说这种自回归、一步一步展开的机制,天然容易带来几个问题:
容易陷入局部正确、全局混乱。
这点在今天的 AI 编程里已经非常常见:每一段代码看着都像对的,但拼起来却是补丁摞补丁,局部通了,全局反而更乱。
很难中途“回头”。
一旦模型沿着某个方向展开,它未必能像真正的全局规划那样,及时发现前面的路其实走偏了。
语言不该成为所有问题的中间层。
如果任务本来就是关于几何、物理、约束、逻辑结构,为什么一定要先把它翻译成 token,再让模型在 token 空间里猜?
成本高。
你越依赖“先猜再验证”,就越需要更多算力、更多生成、更多重试。对于需要毫秒级反应的系统,这种方式很容易变得不现实。
当然,这是一种明显偏“架构派”的判断,不是行业定论。但它确实戳中了今天很多 AI 落地中的痛点:会生成,不等于会控制;会说服人,不等于能约束自己。
四、EBM 真正吸引人的地方,不是“更聪明”,而是“更可控”
如果说这场访谈里有什么地方最值得工程师和创业者注意,不是“EBM 可能更强”,而是 Eve 对它的定位:它更适合那些必须被验证、必须被约束的任务。
她反复提到几个关键词:
- •internal verifier:内部可以观察与校准;
- •external verifier:外部可以形式化验证;
- •constraints:可以显式加约束;
- •correctness:目标不是像,而是对。
在她的设想里,未来很多高价值 AI 系统不会是单一模型包打天下,而是一个分层结构:
- 上层仍然可以是 LLM,负责自然语言接口、交互、解释;
- 下层则由更擅长约束、验证和状态推理的模型负责真正的“硬逻辑”部分;
- 最终再接入 Lean 这类形式化工具,或者别的外部验证器,去做机器可验证的检查。
如果这条路走通,它的价值会首先出现在那些今天最难被 LLM 真正吃掉的行业里:
- •代码与芯片设计:不是只生成代码,而是验证它与旧逻辑是否兼容;
- •金融与风控:不是只做摘要,而是处理高风险决策;
- •药物研发与数据分析:不是只描述结果,而是从复杂数据中抽取可验证结构;
- •能源系统与工业控制:不是只给建议,而是要在时间和资源约束下稳定运行。
说白了,Eve 想解决的并不是“让 AI 更像人”,而是让 AI 更像一个能签责任书的系统。
这件事非常重要。因为 AI 的下一个阶段,大概率不是继续让它在聊天界面里更惊艳,而是看它能不能进入那些“结果比表达更重要”的世界。
五、那为什么行业还在疯狂投 LLM?
这是 Dan 在访谈里问得很好的一个问题:如果 EBM 这类方向真有潜力,为什么今天整个行业还在往 LLM 和算力基础设施里砸钱?
Eve 的回答很现实:因为这不只是技术问题,更是路径依赖和产业结构问题。
过去几年,LLM 已经形成了一个巨大的生态:
- • 模型公司在做大模型;
- • 云厂商和数据中心在扩充基础设施;
- • 芯片公司在卖算力;
- • 创业公司在这套范式上继续包装各种产品;
- • 投资机构也已经把大量资金压了进去。
当一个生态已经形成,哪怕它出现瓶颈,整个系统也不会轻易说“那我们推倒重来”。更常见的动作是:继续往熟悉的路径上加码,同时少量试探新的方向。
这也是为什么,Eve 一边强调 EBM 不是 LLM 的简单延长线,另一边又主动把它包装成“可以兼容 LLM、可以给 LLM 降本增效、可以作为底层补充”的角色。因为如果你想进入现实世界,而不是只停留在论文讨论里,你就必须学会和既有生态相连接。
从这个角度看,EBM 现在最现实的机会,未必是“替代 LLM”,而更可能是:在 LLM 最不可靠的地方,成为它的补位者。
而这可能恰恰是它最有机会跑出来的路径。
六、普通人该从这场讨论里带走什么?
我觉得至少有四点。
第一,不要把“语言能力”误当成“通用智能”。
今天的大模型太会说了,以至于很多人天然相信:既然它能解释复杂概念、还能写代码,那它离可靠控制世界已经不远了。但这场访谈提醒我们,语言流畅和结构正确,根本不是一回事。
第二,AI 的真正分水岭,可能不是更会聊天,而是更能被验证。
未来真正高价值的 AI 公司,未必是“最会做 demo 的那一批”,而可能是最早把正确性、约束性、可证明性做成产品能力的那一批。
第三,如果你正在用 LLM 做生产任务,别被“能跑起来”骗了。
尤其是代码、流程自动化、决策建议这些任务,局部成功往往会掩盖系统性的脆弱。能生成,只代表起点;能验证,才代表可以上线。
第四,关注 AI 落地时最难自动化的行业。
如果某种新架构真的有意义,它最早不会先在社交媒体上爆红,而更可能先在金融、工业、芯片、能源、制药这些“不能乱来”的行业里悄悄站稳。
也就是说,判断一个 AI 方向有没有长期价值,别只看它会不会让人惊艳,更要看它能不能让人放心。
结语
如果把这场访谈压缩成一句话,我会写成:
GPT 时代解决的是“AI 能不能说话”,下一个时代要解决的,可能是“AI 能不能负责”。
Eve 对 EBM 的判断未必最终全部成立。她的一些说法也明显带着创业者视角和技术路线立场,未必会被整个研究界完全认同。但她提出的问题非常关键,而且大概率会越来越重要:
当 AI 真正进入基础设施、工业系统和关键决策之后,我们还愿不愿意继续把“会生成”当成最核心的评价标准?
LLM 让世界第一次大规模感受到 AI 的力量。
但 AI 真正成熟的标志,也许不是它越来越像一个会聊天的人,而是它越来越像一个可以被约束、被验证、被信任的系统。
从这个意义上说,EBM 是否成为下一代主流架构,当然还有待观察;但它逼着整个行业重新思考一个根本问题:AI 的终局,究竟是更会说,还是更能负责?
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2026 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》,下方扫码获取~
① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
以上资料如何领取?
为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!
不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。