当前位置: 首页 > news >正文

解决flash-attn安装报错的问题

一、适用问题类型

直接pip安装flash-attn会出现各种各样的报错。

二、解决办法

!注意安装flash-attn之前需要先安装pytorch和CUDA!

然后进行下面步骤:

1.查看版本

需要查看的有:

pytorch

python -c "import torch; print(torch.__version__)"

CUDA

nvcc --version

python

python3 --version

2.选择对应包

到这个网站页面选择和你的pytorch、CUDA、python对应的flash-attn:

https://github.com/Dao-AILab/flash-attention/releases

注意选择abiFALSE的那种包,另一种也会出现错误。例如,CUDA版本12.1,pytorch版本2.7.1,python版本3.11.13,那么选择的包就是flash_attn-2.8.0.post2+cu12torch2.7cxx11abiFALSE-cp311-cp311-linux_x86_64.whl。然后执行下面命令:

wget https://github.com/Dao-AILab/flash-attention/releases/tag/v2.8.0.post2/flash_attn-2.8.0.post2+cu12torch2.7cxx11abiFALSE-cp311-cp311-linux_x86_64.whl

3.安装

最后一步直接pip安装即可

pip3 flash_attn-2.8.0.post2+cu12torch2.7cxx11abiFALSE-cp311-cp311-linux_x86_64.whl

http://www.lryc.cn/news/576320.html

相关文章:

  • Java-对象的字符串表示
  • Day45 Tensorboard使用介绍
  • 计算机操作系统(十七)内存管理
  • 关于上位机的热更新
  • 暑假复习篇之运算与逻辑
  • C#数据流处理:深入解析System.IO.Pipelines的奥秘
  • 数据结构与算法 --- 双向链表
  • 鸿蒙 Scroll 组件深度解析:丝滑滚动交互全场景实现
  • Python 数据分析与可视化 Day 10 - 数据合并与连接
  • 华为云Flexus+DeepSeek征文|基于Dify构建文本/图像/视频生成工作流
  • C++虚函数详解:动态绑定机制深度解析
  • 创客匠人视角:创始人 IP 打造为何成为知识变现的核心竞争力
  • 如何在FastAPI中打造坚不可摧的Web安全防线?
  • 【C++】简单学——类和对象(下)
  • 从 AJAX 到 axios:前端与服务器通信实战指南
  • 户外人像要怎么拍 ?
  • 翻译服务器
  • 网络攻防技术
  • 机器学习框架(1)
  • 5 BERT预训练模型
  • Vue基础(18)_收集表单数据
  • 理解图像的随机噪声
  • RGB+EVS视觉融合相机:事件相机的革命性突破​
  • 华为云镜像仓库下载 selenium/standalone-chrome 镜像
  • 《红黑树实现》
  • Vue3——组件传值
  • 【音视频】H.264详细介绍及测试代码
  • Excel限制编辑:保护表格的实用功能
  • 道路交通标志检测数据集-智能地图与导航 交通监控与执法 智慧城市交通管理-2,000 张图像
  • Qt:QCustomPlot库简介