安装指南

本教程面向使用 verl & Ascend 的开发者,帮助完成昇腾环境下 verl 的安装。

昇腾环境安装

请根据已有昇腾产品型号及 CPU 架构等按照 快速安装昇腾环境指引 进行昇腾环境安装。

警告

CANN 最低版本为 8.3.RC1,安装 CANN 时,请同时安装 Kernel 算子包以及 nnal 加速库软件包。

Python 环境创建

1# 创建名为 verl 的 python 3.11 的虚拟环境
2conda create -y -n verl python==3.11
3# 激活虚拟环境
4conda activate verl

Torch 安装创建

1# 安装 torch 2.7.1 及 torch-npu 2.7.1 的 CPU 版本
2pip install torch==2.7.1 torchvision==0.22.1 torchaudio==2.7.1 --index-url https://download.pytorch.org/whl/cpu
3
4# 安装 torch-npu 2.7.1
5pip install torch-npu==2.7.1

vllm & vllm-ascend 安装

方法一:使用以下命令编译安装 vllm 和 vllm-ascend。请注意根据机器类型区分安装方式。

 1# vllm
 2git clone -b v0.11.0 --depth 1 https://github.com/vllm-project/vllm.git
 3cd vllm
 4pip install -r requirements-build.txt
 5
 6# for Atlas 200T A2 Box16
 7VLLM_TARGET_DEVICE=empty pip install -e . --extra-index https://download.pytorch.org/whl/cpu/
 8
 9# for Atlas 900 A2 PODc or Atlas 800T A3
10VLLM_TARGET_DEVICE=empty pip install -e .
1# vllm-ascend
2git clone -b v0.11.0rc1 --depth 1 https://github.com/vllm-project/vllm-ascend.git
3cd vllm-ascend
4pip install -e .

方法二:使用以下命令直接安装预编译好的 vllm 和 vllm-ascend。

1# Install vllm-project/vllm. The newest supported version is v0.11.0.
2pip install vllm==0.11.0
3
4# Install vllm-project/vllm-ascend from pypi.
5pip install vllm-ascend==0.11.0rc1

安装 verl

使用以下指令安装 verl 及相关依赖:

1git clone https://github.com/volcengine/verl.git
2cd verl
3
4# Install verl NPU dependencies
5pip install -r requirements-npu.txt
6pip install -e .

其他第三方库说明

Software

Description

transformers

>=v4.57.1

flash_attn

not supported

liger-kernel

not supported

  1. 支持通过 transformers 使能 –flash_attention_2, transformers 需大于等于 4.57.1版本。

  2. 不支持通过 flash_attn 使能 flash attention 加速。

  3. 不支持 liger-kernel 使能。

  4. 针对 x86 服务器,需要安装 cpu 版本的 torchvision。

1pip install torchvision==0.20.1+cpu --index-url https://download.pytorch.org/whl/cpu