如果pip安装很慢,可以试试这个方法

https://github.com/Dao-AILab/flash-attention

pip install ninja   
MAX_JOBS=64 pip install -v flash-attn --no-build-isolation

不安装ninja,MAX_JOBS不起作用

MAX_JOBS根据自己硬件配置来设置

经过10分钟不到,编译成功

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐