news 2026/2/19 6:28:58

Liquid AI 推出本地端推理模型 LFM2.5-1.2B-Thinking:900MB 手机可跑,先思考再作答

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Liquid AI 推出本地端推理模型 LFM2.5-1.2B-Thinking:900MB 手机可跑,先思考再作答

Liquid AI今日正式发布 LFM2.5-1.2B-Thinking,这是一款专为完全在 本地端(On-Device) 运行而设计的推理模型。该模型实现了惊人的轻量化突破,仅需 900 MB 内存 即可在普通智能手机上流畅运行。作为一款以 “简洁推理” 为训练目标的新一代模型,它能够在输出最终答案前生成 内部思维轨迹,将以往需要数据中心级算力才能实现的复杂推理能力,成功迁移至用户掌中的移动终端。

模型核心能力与技术特性

LFM2.5-1.2B-Thinking 不仅仅是参数量的压缩,更是在训练方法论上的革新。其核心技术特性集中体现在以下几个维度:

关键技术指标

- 简洁推理(Concise Reasoning): 模型被训练以最直接、高效的路径解决问题,减少冗余计算。

- 内部思维轨迹: 能够先生成隐式的思考步骤(Internal Thinking Traces),再输出最终答案,显著提升逻辑一致性。

- 边缘规模延迟(​Edge-Scale Latency): 专为低延迟场景优化,确保在移动设备上的响应速度满足实时交互需求。

- 多领域专精: 在工具使用(Tool Use)、数学计算(Math)以及复杂指令跟随(Instruction Following)方面表现优异。

工作流:从 “直觉” 到 “深思” 的进化

传统的端侧小模型往往为了速度而牺牲深度,倾向于直接生成答案。而 LFM2.5-1.2B-Thinking 引入了类似 “系统 2”(System 2)的慢思考机制。通过在输出结果前构建 内部思维轨迹,模型能够自我校正逻辑谬误,从而大幅提升答案的稳定性和可解释性。

在 On-Device 的严苛资源约束下实现这种 “链式/树式” 思维是一项巨大的工程挑战。Liquid AI 通过优化推理路径,使得这种复杂的思维过程不再依赖云端巨型算力,而是能够在本地芯片的算力预算内完成,真正实现了 “把大脑装进口袋”。

性能门槛:900MB 的端侧革命

“两年前需要数据中心才能做到的事,现在只需要一部手机。”900 MB 的内存占用意味着目前市面上绝大多数智能手机、甚至部分高端 IoT 设备都能轻松承载该模型。

- 零隐私风险: 数据无需上传云端,完全本地处理。

- 离线可用: 在弱网或无网环境(如飞机、偏远地区)仍能全功能工作。

- 极致优化: 结合权重压缩与线性注意力(Linear Attention)等技术,最大化硬件利用率。

应用场景与未来展望

LFM2.5-1.2B-Thinking 的发布为端侧 AI 打开了新的应用大门,尤其是在对隐私和实时性要求极高的场景中:

注意事项:尽管表现惊人,但在处理超长上下文或极端复杂的逻辑推理时,受限于模型尺寸和端侧内存,仍需合理设定预期,做好资源匹配。

LFM2.5-1.2B-Thinking 成功将 “本地端推理 + 简洁思考 + 工具能力” 三者合而为一,标志着端侧智能进入了一个 “会思考” 的新阶段。它证明了高效能不再是巨型模型的专利,小模型通过优秀的算法设计同样能迸发大智慧。建议开发者与行业用户密切关注其后续发布的基准数据与开放测试入口。

文章来源:AITOP100,原文地址:https://www.aitop100.cn/infomation/details/33168.html

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/14 8:12:03

Qwen1.5-0.5B模型裁剪:进一步压缩体积可行性研究

Qwen1.5-0.5B模型裁剪:进一步压缩体积可行性研究 1. 为什么还要“裁剪”一个0.5B的模型? 你可能已经注意到——Qwen1.5-0.5B本身只有约5亿参数,加载后内存占用不到1.2GB(FP32),在普通笔记本CPU上就能跑出…

作者头像 李华
网站建设 2026/2/18 2:18:17

AI教育应用落地:Qwen3-0.6B智能题库生成系统搭建教程

AI教育应用落地:Qwen3-0.6B智能题库生成系统搭建教程 在当前AI技术快速渗透教育领域的背景下,自动化、智能化的教学辅助工具正成为提升教学效率的重要手段。其中,自动生成高质量题目是教师和教育机构最迫切的需求之一。本文将带你从零开始&a…

作者头像 李华
网站建设 2026/2/5 13:27:43

NewBie-image-Exp0.1工具推荐:支持XML提示词的动漫生成镜像实测

NewBie-image-Exp0.1工具推荐:支持XML提示词的动漫生成镜像实测 1. 为什么这款动漫生成镜像值得你立刻试试? 你是不是也遇到过这些问题:想生成一张带两个角色的动漫图,结果AI把她们的脸画混了;想让主角穿蓝裙子、扎双…

作者头像 李华
网站建设 2026/2/17 8:17:48

Llama3-8B响应延迟高?请求队列优化实战技巧

Llama3-8B响应延迟高?请求队列优化实战技巧 1. 问题现场:为什么你的Llama3-8B总是“卡一下”? 你兴冲冲地拉起 Meta-Llama-3-8B-Instruct 的 GPTQ-INT4 镜像,RTX 3060 上跑得稳稳当当,打开 Open WebUI,输…

作者头像 李华
网站建设 2026/2/7 14:11:18

Qwen All-in-One文档解读:核心亮点与实现路径

Qwen All-in-One文档解读:核心亮点与实现路径 1. 轻量级全能AI服务的诞生背景 你有没有遇到过这样的问题:想在一台低配服务器甚至本地电脑上跑个AI应用,结果光是下载模型就卡住了?或者多个模型之间互相冲突,显存爆了…

作者头像 李华