news 2026/5/10 17:16:14

Linux服务器安装flash_attn

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Linux服务器安装flash_attn

方法一:直接尝试pip:

pipinstallflash_attn

可能出现报错:

pip install flash-attn -i https://pypi.tuna.tsinghua.edu.cn/simple Looking in indexes: https://pypi.tuna.tsinghua.edu.cn/simple Collecting flash-attn Using cached https://pypi.tuna.tsinghua.edu.cn/packages/3b/b2/8d76c41ad7974ee264754709c22963447f7f8134613fd9ce80984ed0dab7/flash_attn-2.8.3.tar.gz (8.4 MB) Installing build dependencies ... done Getting requirements to build wheel ... error error: subprocess-exited-with-error × Getting requirements to build wheel did not run successfully. │ exit code: 1 ╰─> [20 lines of output] Traceback (most recent call last): File "/home/ysr/.conda/envs/wan/lib/python3.11/site-packages/pip/_vendor/pyproject_hooks/_in_process/_in_process.py", line 389, in <module> main() File "/home/ysr/.conda/envs/wan/lib/python3.11/site-packages/pip/_vendor/pyproject_hooks/_in_process/_in_process.py", line 373, in main json_out["return_val"] = hook(**hook_input["kwargs"]) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/home/ysr/.conda/envs/wan/lib/python3.11/site-packages/pip/_vendor/pyproject_hooks/_in_process/_in_process.py", line 143, in get_requires_for_build_wheel return hook(config_settings) ^^^^^^^^^^^^^^^^^^^^^ File "/tmp/pip-build-env-7rn47hok/overlay/lib/python3.11/site-packages/setuptools/build_meta.py", line 331, in get_requires_for_build_wheel return self._get_build_requires(config_settings, requirements=[]) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/tmp/pip-build-env-7rn47hok/overlay/lib/python3.11/site-packages/setuptools/build_meta.py", line 301, in _get_build_requires self.run_setup() File "/tmp/pip-build-env-7rn47hok/overlay/lib/python3.11/site-packages/setuptools/build_meta.py", line 512, in run_setup super().run_setup(setup_script=setup_script) File "/tmp/pip-build-env-7rn47hok/overlay/lib/python3.11/site-packages/setuptools/build_meta.py", line 317, in run_setup exec(code, locals()) File "<string>", line 22, in <module> ModuleNotFoundError: No module named 'torch' [end of output] note: This error originates from a subprocess, and is likely not a problem with pip. ERROR: Failed to build 'flash-attn' when getting requirements to build wheel

这是一个非常典型的 Python 打包和构建错误,尤其是在尝试从源代码或使用 PyPI 缓存的源码包进行安装时:

ModuleNotFoundError: No module named 'torch'

错误原因分析

pip尝试安装flash-attn时,它会经历几个步骤,其中一个步骤是获取构建 Wheel 所需的依赖项 (Getting requirements to build wheel)

  1. flash-attnsetup.py(或类似的构建配置)在运行时需要导入torch来检查环境、确定 CUDA 架构等信息。
  2. 在构建环境(pip-build-env-*)内部,PyTorch 模块没有被找到,导致ModuleNotFoundError

为什么 PyTorch 已经安装了,构建环境却找不到它?

这是因为pip默认会在一个隔离的临时环境中运行构建脚本(通过pyproject.toml文件指定的要求),以确保构建的纯净性。您的主环境中的 PyTorch (虽然已安装) 并不会自动复制到这个临时的构建环境。

解决方案:禁用构建隔离

解决这个问题最简单、最直接的方法就是禁用pip的构建隔离。这将允许构建脚本直接访问您当前虚拟环境(wan)中已经安装的torch模块。

请尝试使用以下命令进行安装:

pipinstallflash-attn --no-build-isolation -i https://pypi.tuna.tsinghua.edu.cn/simple
  • --no-build-isolation: 禁用构建隔离,允许flash-attn的构建脚本访问您当前环境中的torch模块。

然后可能出现报错二:

(类似说没有找到cuda的,具体报错我的记录丢失了,解决方法是export CUDA_HOME=xxx,其中xxx类似于/一堆前缀路径/cuda-12.1


错误三:

网络问题
因为服务器可能连不上外网或者其他什么网络问题,如果出现这种情况,最好的解决方法就是自己到github仓库中找到对应版本的whl,然后手动安装。

Building wheel for flash-attn (pyproject.toml) ... error error: subprocess-exited-with-error × Building wheel for flash-attn (pyproject.toml) did not run successfully. │ exit code: 1 ╰─> [22 lines of output] No CUDA runtime is found, using CUDA_HOME='/opt/Software/cuda/12.9.1' /home/ysr/.conda/envs/wan/lib/python3.11/site-packages/setuptools/dist.py:759: SetuptoolsDeprecationWarning: License classifiers are deprecated. !! ******************************************************************************** Please consider removing the following classifiers in favor of a SPDX license expression: License :: OSI Approved :: BSD License See https://packaging.python.org/en/latest/guides/writing-pyproject-toml/#license for details. ******************************************************************************** !! self._finalize_license_expression() torch.__version__ = 2.5.1+cu121 running bdist_wheel Guessing wheel URL: https://github.com/Dao-AILab/flash-attention/releases/download/v2.8.3/flash_attn-2.8.3+cu12torch2.5cxx11abiFALSE-cp311-cp311-linux_x86_64.whl error: Remote end closed connection without response [end of output] note: This error originates from a subprocess, and is likely not a problem with pip. ERROR: Failed building wheel for flash-attn Failed to build flash-attn error: failed-wheel-build-for-install × Failed to build installable wheels for some pyproject.toml based projects ╰─> flash-attn

在报错里其实已经给出了你可能匹配的whl路径了:
Guessing wheel URL: https://github.com/Dao-AILab/flash-attention/releases/download/v2.8.3/flash_attn-2.8.3+cu12torch2.5cxx11abiFALSE-cp311-cp311-linux_x86_64.whl

直接去网站下载,然后传到服务器上,手动安装:

pipinstallflash_attn-2.8.3+cu12torch2.5cxx11abiFALSE-cp311-cp311-linux_x86_64.whl
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/30 23:40:30

PHP 8.3.0 Windows终极下载指南:快速上手指南

PHP 8.3.0 Windows终极下载指南&#xff1a;快速上手指南 【免费下载链接】PHP8.3.0Windows64位版本下载 PHP 8.3.0 Windows 64位版本下载 项目地址: https://gitcode.com/open-source-toolkit/2d0fb 欢迎来到PHP 8.3.0 Windows版本的完整下载指南&#xff01;无论您是P…

作者头像 李华
网站建设 2026/5/9 17:09:34

基于SpringBoot框架的兼职平台的设计与实现

兼职平台的设计与实现背景随着互联网技术的快速发展和移动设备的普及&#xff0c;兼职市场逐渐从传统的线下中介模式转向线上平台化运营。这种转变不仅提高了信息传递的效率&#xff0c;还降低了求职者与雇主之间的沟通成本。然而&#xff0c;现有的兼职平台仍存在信息不对称、…

作者头像 李华
网站建设 2026/4/30 16:15:27

基于SpringBoot家乡特产推荐系统设计与实现

课题背景随着互联网技术的快速发展和电子商务的普及&#xff0c;线上购物已成为人们日常生活中不可或缺的一部分。特产作为地方文化的象征和地域特色的代表&#xff0c;具有独特的经济和文化价值。然而&#xff0c;传统的特产销售模式受限于地域和渠道&#xff0c;难以实现广泛…

作者头像 李华
网站建设 2026/4/30 23:40:35

Git/Gerrit 分支替换操作及 `(no new changes)` 错误处理

目标 使用 branch_a 分支的完整代码内容覆盖 branch_b 分支&#xff0c;并通过 Gerrit 代码评审系统提交。 问题描述 在执行 git reset --hard 将本地历史替换为 branch_a 后&#xff0c;尝试推送到 Gerrit 时&#xff0c;遇到以下错误&#xff1a; ! [remote rejected] branch…

作者头像 李华
网站建设 2026/5/10 6:02:37

YgoMaster:解锁游戏王大师决斗的离线新境界

YgoMaster&#xff1a;解锁游戏王大师决斗的离线新境界 【免费下载链接】YgoMaster Offline Yu-Gi-Oh! Master Duel 项目地址: https://gitcode.com/gh_mirrors/yg/YgoMaster 还在为网络延迟影响游戏王对战体验而烦恼吗&#xff1f;想随时随地沉浸在决斗的乐趣中&#x…

作者头像 李华