第二章:AI底层硬件架构:算力的基石
学习目标
掌握AI计算硬件的分类、原理及适用场景,理解不同硬件在AI全流程中的协同作用。
2.1 CPU在AI计算中的角色与局限性
角色定位:
- 系统控制中枢:CPU是AI服务器的“大脑”,负责操作系统指令调度、内存管理、数据流控制及I/O操作。例如,在AI加速服务器中,每8个GPU需搭配2个高端CPU以维持系统稳定运行。
- 通用计算核心:CPU擅长处理序列化任务、复杂逻辑运算及通用应用程序。在AI全流程中,CPU贯穿数据采集、预处理、训练、推理及应用等环节。例如,在蛋白质折叠预测(AlphaFold2)中,英特尔至强可扩展处理器通过优化端到端通量能力,提供比GPU更具性价比的加速方案。
- 异构架构协调者:在CPU+GPU/FPGA/TPU等异构架构中,CPU作为控制节点,管理加速器计算任务,实现资源高效分配。例如,腾讯云VectorDB与英特尔合作,通过第五代至强平台优化,向量检索效率提升约2.3倍。
局限性:
- 并行计算能力不足:CPU核心数较少(通常2-64核),主频虽高(3-5GHz),但并行计算单元有限,难以高效处理深度学习中的大规模矩阵运算。例如,训练ResNet模型时,CPU的GFLOPS吞吐量仅为GPU的几十分之一。
- 功耗与成本限制:高端CPU功耗较高(如至强可扩展处理器TDP可达270W),且在大规模并行计算场景中,成本效益低于GPU或专用芯