飞桨除了基本的模型训练和预测,还提供了支持多端多平台的高性能推理部署工具。本文档提供了PaddleSeg中所有模型的飞桨训推一体认证 (Training and Inference Pipeline Certification(TIPC)) 信息和测试工具,方便用户查阅每种模型的训练推理部署打通情况,并可以进行一键测试。
若您需要快速了解TIPC工具的使用方式,请阅读测试流程概述。
打通情况汇总如下,已填写的部分表示可以使用本工具进行一键测试,未填写的表示正在支持中。
字段说明:
- 基础训练预测:包括模型训练、Paddle Inference Python预测。
- 更多训练方式:包括多机多卡、混合精度。
- 模型压缩:包括裁剪、离线/在线量化、蒸馏。
- 其他预测部署:包括C++预测、Serving服务化部署、ARM端侧部署等多种部署方式。
更详细的mkldnn、Tensorrt等预测加速相关功能的支持情况可以查看各测试工具的更多教程。
算法论文 | 模型名称 | 基础 训练预测 |
更多 训练方式 |
模型压缩 | 更多部署方式 |
---|---|---|---|---|---|
HRNet | pphumanseg_mobile (fcn_hrnetw18_small) | 支持 | 混合精度 | KL离线量化 PACT量化训练 |
- |
HRNet | fcn_hrnet_w18 | 支持 | 混合精度 | KL离线量化 PACT量化训练 |
C++预测 |
DeepLabV3P | pphumanseg_server (deeplabv3p_resnet50) | 支持 | 混合精度 | KL离线量化 PACT量化训练 |
C++预测 |
DeepLabV3P | deeplabv3p_resnet50_cityscapes | 支持 | - | - | - |
ConnectNet | pphumanseg_lite | 支持 | 混合精度 | KL离线量化 PACT量化训练 |
C++预测 |
BiSeNetV2 | bisenetv2 | 支持 | - | - | - |
OCRNet | ocrnet_hrnetw18 | 支持 | 混合精度 | KL离线量化 PACT量化训练 |
C++预测 |
OCRNet | ocrnet_hrnetw48 | 支持 | 混合精度 | KL离线量化 PACT量化训练 |
C++预测 |
SegFormer | segformer_b0 | 支持 | 混合精度 | KL离线量化 PACT量化训练 |
C++预测 |
STDC | stdc_stdc1 | 支持 | - | - | C++预测 |
MODNet | ppmatting | 支持 | - | - | - |
PFPNNet | pfpnnet | 支持 | - | - | - |
ENet | enet | 支持 | - | - | - |
FastSCNN | fastscnn | 支持 | - | - | - |
DDRNet | ddrnet | 支持 | - | - | - |
CCNet | ccnet | 支持 | - | - | - |
PP-LiteSeg | pp_liteseg_stdc1 | 支持 | - | KL离线量化 PACT量化训练 |
C++预测 |
PP-LiteSeg | pp_liteseg_stdc2 | 支持 | - | KL离线量化 PACT量化训练 |
C++预测 |
GloRe | glore | 支持 | - | - | - |
BiSeNetV1 | bisenetv1 | 支持 | - | - | - |
UPerNet | upernet | 支持 | - | - | - |
HRNet | hrnet_w48_contrast | 支持 | - | - | C++预测 |
ENCNet | encnet | 支持 | - | - | - |
ESPNetV2 | espnetv2 | 支持 | - | - | - |
SFNet | sfnet | 支持 | - | - | - |
MobileSeg | mobileseg_mv3 | 支持 | - | - | - |
test_tipc/
├── configs/ # 配置文件目录
├── deeplabv3p_resnet50 # 模型的测试配置文件目录
├── train_infer_python.txt # 测试Linux上python训练预测(基础训练预测)的配置文件的配置文件
├── ...
├── ...
├── results/ # 预先保存的预测结果,用于和实际预测结果进行精读比对
├── ...
├── prepare.sh # 完成test_*.sh运行所需要的数据和模型下载
├── test_train_inference_python.sh # 测试python训练预测的主程序
├── compare_results.py # 用于对比log中的预测结果与results中的预存结果精度误差是否在限定范围内
└── readme.md # 使用文档
使用本工具,可以测试不同功能的支持情况,以及预测结果是否对齐,测试流程概括如下:
- 运行prepare.sh准备测试所需数据和模型;
- 运行要测试的功能对应的测试脚本
test_*.sh
,产出log,由log可以看到不同配置是否运行成功; - 用
compare_results.py
对比log中的预测结果和预存在results目录下的结果,判断预测精度是否符合预期(在误差范围内)。
测试单项功能仅需两行命令,如需测试不同模型/功能,替换配置文件即可,命令格式如下:
# 功能:准备数据
# 格式:bash + 运行脚本 + 参数1: 配置文件选择 + 参数2: 模式选择
bash test_tipc/prepare.sh configs/[model_name]/[params_file_name] [Mode]
# 功能:运行测试
# 格式:bash + 运行脚本 + 参数1: 配置文件选择 + 参数2: 模式选择
bash test_tipc/test_train_inference_python.sh configs/[model_name]/[params_file_name] [Mode]
例如,测试基本训练预测功能的lite_train_lite_infer
模式,运行:
# 准备数据
bash test_tipc/prepare.sh ./test_tipc/configs/fcn_hrnetw18_small/train_infer_python.txt 'lite_train_lite_infer'
# 运行测试
bash test_tipc/test_train_inference_python.sh ./test_tipc/configs/fcn_hrnetw18_small/train_infer_python.txt 'lite_train_lite_infer'
关于本示例命令的更多信息可查看基础训练预测使用文档。
在configs
目录下,按模型名称划分为子目录,子目录中存放所有该模型测试需要用到的配置文件,配置文件的命名遵循如下规范:
-
基础训练预测配置简单命名为:
train_infer_python.txt
,表示Linux环境下单机、不使用混合精度训练+python预测,其完整命名对应train_linux_gpu_normal_normal_infer_python_linux_gpu_cpu.txt
,由于本配置文件使用频率较高,这里进行了名称简化。 -
其他带训练配置命名格式为:
train_训练硬件环境(linux_gpu/linux_dcu/…)_是否多机(fleet/normal)_是否混合精度(amp/normal)_预测模式(infer/lite/serving/js)_语言(cpp/python/java)_预测硬件环境(linux_gpu/mac/jetson/opencl_arm_gpu/...).txt
。如,linux gpu下多机多卡+混合精度链条测试对应配置train_linux_gpu_fleet_amp_infer_python_linux_gpu_cpu.txt
,linux dcu下基础训练预测对应配置train_linux_dcu_normal_normal_infer_python_linux_dcu.txt
。 -
仅预测的配置(如serving、lite等)命名格式:
model_训练硬件环境(linux_gpu/linux_dcu/…)_是否多机(fleet/normal)_是否混合精度(amp/normal)_(infer/lite/serving/js)_语言(cpp/python/java)_预测硬件环境(linux_gpu/mac/jetson/opencl_arm_gpu/...).txt
,即,与2相比,仅第一个字段从train换为model,测试时模型直接下载获取,这里的“训练硬件环境”表示所测试的模型是在哪种环境下训练得到的。
根据上述命名规范,可以直接从子目录名称和配置文件名找到需要测试的场景和功能对应的配置文件。
各功能测试中涉及混合精度、裁剪、量化等训练相关,及mkldnn、Tensorrt等多种预测相关参数配置,请点击下方相应链接了解更多细节和使用教程:
- test_train_inference_python 使用 :测试基于Python的模型训练、评估、推理等基本功能,包括裁剪、量化、蒸馏。
- test_inference_cpp 使用:测试基于C++的模型推理。
- test_train_amp_inference_python 使用:测试混合精度训练功能。
- test_serving_infer_cpp 使用:测试基于CPP的模型服务化部署功能。
- test_serving_infer_python 使用:测试基于Python的模型服务化部署功能。
- test_lite_arm_cpu_cpp 使用(开发中):测试基于Paddle-Lite的ARM CPU端c++预测部署功能。
- test_paddle2onnx:测试Paddle2ONNX的模型转化功能。
- test_train_fleet_inference_python 使用:测试基于Python的多机多卡训练与推理等基本功能。