测试时间:2026年3月产品:联想 ThinkStation PGX测试场景:汽车供应链 PPAP 文件智能审核一颗螺栓的扭矩偏差了0.1牛米,一道焊缝的截面误差超出公差带,单看都是"小问题"。但放进一辆车、一条线、一个季度的量产节奏里,这些小问题会被系统性地放大。质量管理行业有句老话:越往后发现问题,修复成本越高。理想汽车的答案是:那就把问题消灭在量产开始之前。
2025年,理想的研发投入达到113亿元,其中AI相关占比50%,落地了290个视觉项目,培训了近400名供应商端的AI应用人才。这是一个车企把AI砸进供应链的真实规模。而此次至顶AI实验室关注的,正是这套投入里最不起眼、却最关键的一个节点:供应商量产前的PPAP审核,以及联想 ThinkStation PGX 是如何把这件事从"五六个小时"压缩到"两三分钟"的。
先说清楚:PPAP 是一道什么样的关卡
PPAP,即生产件批准程序(Production Part Approval Process),是汽车行业在零部件正式量产前、供应商必须完成的一套质量认证流程。它的核心逻辑是:供应商要向主机厂证明,自己不是偶尔把零件做对了一次,而是真的有能力、有系统地把它一直做对。
这套证明材料,少则十几份,多则二十多份,涵盖尺寸测量报告、工艺流程图、控制计划、材料认证、MSA量测系统分析……一颗零件,背后就是二十多份资料;一辆车,背后是成千上万颗零件。资料一多,项目一多,人工审核的纰漏就在所难免——不是工程师不认真,而是信息量超过了人工处理的上限。
更棘手的是,PPAP涉及的数据远不止"普通文档"。里面有新车开发节奏、零部件设计参数、工艺细节、供应链信息,很多内容在量产前本身就处于高度保密阶段。这些资料哪怕只泄露了只言片语,拼在一起就可能暴露竞争机密。
这就决定了,这件事的核心约束从一开始就不只是"能不能用AI审",而是"这套AI能不能不离开现场就把活干了"。
这台机器是什么:联想 ThinkStation PGX 配置解析
联想 ThinkStation PGX 是联想首款搭载 NVIDIA GB10 Grace Blackwell 超级芯片的工作站,定位是"桌面超级计算机",核心目标是让本地 AI 推理成为可能,彻底摆脱对云端算力的依赖。
核心配置:
项目规格处理器NVIDIA GB10 Grace Blackwell 超级芯片,20 核 Arm(10x Cortex-X925 + 10x Cortex-A725)AI 算力最高 1 PetaFlop(1000 TOPS)统一内存128GB LPDDR5x,256-bit,CPU 与 GPU 共享存储1TB / 4TB M.2 NVMe SSD(支持自加密)操作系统NVIDIA DGX™ OS,预装 NVIDIA AI 软件栈、PyTorch、Jupyter Notebooks网络10GbE 有线,Wi-Fi 6/7,蓝牙 5.3形态小尺寸紧凑机箱(SFF),可多机互联共享算力与内存池模型支持规模最高支持 2000 亿参数的大模型本地运行这台机器的设计逻辑,是把原本只有数据中心才能提供的 AI 能力,装进一个可以放在工位旁边的盒子里。1 PetaFlop 的 AI 算力,1000 TOPS 的性能标定,128GB 统一内存架构让 CPU 与 GPU 之间不再需要反复搬运数据,这对推理型任务来说是关键优势。
在工业场景里,它还有一个不可忽视的属性:本地部署、数据不出厂。
评测场景:一个零件的审核,从5小时到2分钟
至顶AI实验室本次评测聚焦于理想汽车真实供应链场景下的PPAP审核效率测试。测试环境为联想ThinkStation PGX本地部署,运行自研供应链AI智能体,测试任务为单零件完整PPAP文件包的AI自动审核。
基准对比:人工审核单零件PPAP文件,耗时约5至6小时(含文件调取、逐项核查、问题标注、审核记录)。
AI方案实测结果:
单零件PPAP资料完整审核耗时:2至3分钟并行处理能力:同时处理100份文件效率提升倍数:约150倍数据处置方式:全程本地推理,文件不出场以文字形式呈现对比数据:在相同PPAP审核任务下,人工方案单零件耗时5至6小时,PGX上的AI智能体方案耗时2至3分钟,效率提升约150倍;同时支持并行处理100份文件,这意味着一个供应商批次的全套PPAP材料,过去需要一个团队数天的工作量,现在可以在几小时内完成批量审核。
至顶AI实验室注意到,这一数字的意义并不只在于"快"。PPAP审核存在明显的时间窗口约束:供应商提交材料到主机厂审核完毕,直接影响量产启动节点。审核效率的提升,等同于为整车开发周期争取了可量化的时间余量。
适用边界声明:本次评测基于理想汽车内部真实部署场景,具体效率数据受文件复杂度、零件类型、AI智能体调优程度影响,不同供应链场景下的绝对数值可能存在差异。本方案最适合具备一定AI应用团队、且存在大批量文档审核需求的主机厂或Tier1供应商;对于单次PPAP审核量较小、文件标准化程度低的场景,收益相对有限。
本地AI与云端AI:为什么这道题只有本地能做
这是这次评测里最值得单独讨论的判断。
把大模型接入PPAP审核,技术上并不新鲜。真正的难点在于:PPAP数据的保密属性,从根本上排除了云端方案的可能性。
PPAP文件里包含的不只是"零件合不合格",而是新车开发节奏、工艺参数、供应商能力边界,以及隐含在这些数据里的竞争情报。任何一个字段上传到云端,就意味着数据经过了主机厂控制范围之外的节点。对一家每年研发投入超百亿的车企而言,这个风险不可接受。
本地部署的PGX,从架构层面解决了这个矛盾:数据不离场,模型就在现场跑,结果直接写回审核系统。雷江波将这套方案的价值概括为四个词:"好用、易用、便宜、柔性。"在至顶AI实验室看来,前两个词是用户体验,后两个词才是真正的工业落地门槛——柔性意味着可以在不同零件、不同供应商、不同审核维度之间切换,而无需每次重新训练或部署。
一个行业的缩影
麦肯锡估算,中国工业自动化市场规模已超过2500亿元,占全球三分之一以上;IDC数据显示,全球工业AI质检市场2025年接近10亿美元,复合增长率28.5%。这些数字背后,是一个还没有完全打开的市场。
理想和联想这次合作的意义,不在于PPAP审核本身有多大,而在于它验证了一种路径:在数据高度敏感、现场部署强制的工业场景里,本地大算力AI工作站是可以真正落地的。ThinkStation PGX把这件事从"原型验证"推进到了"稳定生产运行"。
随着PGX这类产品越来越成熟,AI会更自然地走进质检、审核、工艺分析这些真实的工业场景——不是作为一个云端服务,而是作为一台放在车间里的机器。
至顶AI实验室的综合评估
适用场景判断
ThinkStation PGX 并不是一台通用办公机,也不是为消费级用户设计的。它的核心价值主张非常明确:为需要在本地跑大模型的专业场景,提供一套不依赖云端的算力底座。结合理想汽车的案例,至顶AI实验室认为以下几类工业场景值得重点关注:
供应链质量审核:如 PPAP 等合规类文件的智能体处理工厂视觉质检:本地实时推理,延迟敏感)工艺参数分析与预测性维护:(数据不出厂的合规要求)涉及商业机密的 AI 开发与微调优势小结
1 PetaFLOP 算力 + 128GB 统一内存,支持 2000 亿参数模型本地全量运行双机互联可线性扩展到 4050 亿参数,无需改变部署架构功耗远低于服务器(满载持续约 104–160W),可直接部署在办公环境NVIDIA DGX OS 生态完整,PyTorch/Jupyter 开箱即用,对 AI 工程师友好需要注意的地方
存储空间有限(1TB/4TB 可选),大规模数据集需外挂存储内存上限 128GB(双机 256GB),不适合需要更大显存的超大规模训练任务定价偏高(国际市场约 4100–4699 美元),适合对本地算力有明确需求的企业客户至顶AI实验室认为,联想 ThinkStation PGX 在本次理想汽车 PPAP 审核场景的评测中,表现达到预期。它不是一个通用工作站,而是一套可以在工业现场长期稳定运行的本地 AI 解决方案。随着这类产品越来越成熟,AI 走进质检、审核、工艺分析等真实工业场景的速度,只会越来越快。
END本文来自至顶AI实验室,一个专注于对AI计算机、工作站及各类AI相关硬件设备,开展基于真实使用场景评测的研究机构。
核心问答
Q1:为什么 PPAP 审核必须用本地 AI,而不能用云端大模型?
PPAP 材料直接关联新车型开发节奏、零部件工艺参数和供应链机密,量产前属于高度保密内容。一旦通过云端传输,任何连接节点都是潜在泄漏风险。ThinkStation PGX 将模型和算力全部部署在本地,数据不离开现场,这是这个场景下的硬性要求,而不是可以妥协的成本选项。
Q2:五小时缩短到两分钟,AI 审核的精度能保证吗?
PPAP 审核的核心是语义理解和参数比对,不是简单的格式校验。ThinkStation PGX 配备 128GB 统一内存,可以在本地运行足够规模的大模型,保障推理质量。理想汽车供应链总监雷江波用"好用"来评价其审核效果,意味着这套系统达到了可在生产级场景使用的精度水准。
Q3:这套方案对其他制造业企业有参考意义吗?
有。PPAP 只是一个切入点,背后的逻辑——高保密要求 + 大规模文档处理 + 现场部署——在汽车、航空、精密制造等多个行业普遍存在。ThinkStation PGX 这类本地 AI 计算设备,提供的是一种通用的解题框架:把算力放到数据旁边,而不是把数据搬到算力旁边。