- 硬件:Ascend 910A/B
首先参考Qwen README下载官方模型到/path/to/Qwen-7B-Chat
。
docker pull qwenllm/qwen-mindspore:latest
cd /path/to/Qwen/ascend-support
# 下载模型到此处
CHECKPOINT_PATH=/path/to/Qwen-7B-Chat
cd ascend-support
# 启动docker容器
bash docker_qwen.sh -c ${CHECKPOINT_PATH}
在容器内执行下面的命令,将Qwen模型转换为适配mindformers
的格式:
python3 /data/qwen/mindformers/research/qwen/convert_weight.py
转换后模型的输出位置为${CHECKPOINT_PATH}/qwen-7b-chat.ckpt
。
在容器内执行下面的命令,进行推理:
cd /data/qwen/mindformers/research/qwen
export PYTHONPATH=/data/qwen/mindformers:$PYTHONPATH
python3 infer_qwen.py