海光 DCU 基于 PaddleX 的使用指南¶
环境准备¶
环境说明¶
本教程介绍如何基于海光 DCU 进行 ResNet50 / DeepLabv3p 等不同领域模型的训练,总共需要 4 卡进行训练
考虑到环境差异性,我们推荐使用教程提供的标准镜像完成环境准备:
镜像链接: registry.baidubce.com/device/paddle-dcu:dtk23.10.1-kylinv10-gcc73-py310
环境安装¶
安装 PaddlePaddle
该命令会自动安装飞桨主框架每日自动构建的 nightly-build 版本
由于 dcu 代码位于飞桨主框架中,因此我们不需要安装额外的 Custom Device 包
python -m pip install --pre paddlepaddle-dcu -i https://www.paddlepaddle.org.cn/packages/nightly/dcu/
安装 PaddleX 代码库
git clone https://github.com/PaddlePaddle/PaddleX.git
# 如果速度较慢,可以考虑从 gitee 拉取
# git clone https://gitee.com/paddlepaddle/PaddleX.git
cd PaddleX
# 安装 PaddleX whl
# -e:以可编辑模式安装,当前项目的代码更改,都会直接作用到已经安装的 PaddleX Wheel
pip install -e .
基于 PaddleX 训练 ResNet50¶
一、安装 PaddleX 依赖¶
# 跳转到 PaddleX 根目录下
cd /path/to/paddlex
# 安装 PaddleX 相关依赖,由于我们使用的是图像分类模型,因此安装图像分类库
paddlex --install PaddleClas
# 完成安装后会有如下提示:
# All packages are installed.
二、数据准备¶
为了快速上手验证,我们基于 flowers 102 数据集进行快速体验:
下载数据集
# 跳转到 PaddleX 根目录下
cd /path/to/paddlex
# 下载并解压数据
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/cls_flowers_examples.tar -P ./dataset
tar -xf ./dataset/cls_flowers_examples.tar -C ./dataset/
数据校验
PaddleX 支持对数据集进行校验,确保数据集格式符合 PaddleX 的相关要求。同时在数据校验时,能够对数据集进行分析,统计数据集的基本信息。
python main.py -c paddlex/configs/image_classification/ResNet50.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/cls_flowers_examples
# 命令运行成功后会在 log 中打印出 Check dataset passed ! 信息
更多关于 PaddleX 数据集说明的内容,可以查看 PaddleX 数据集校验
三、模型训练¶
进入 PaddleX
目录下,执行如下命令启动 4 卡 DCU(0 ~ 3 号卡)训练,其中:
参数
-o Global.device
指定的是即将运行的设备,这里需要传入的是gpu:0,1,2,3
,通过指定该参数,PaddleX 调用飞桨的设备指定接口paddle.set_device
来指定运行设备为gpu
,在进行模型训练时,飞桨将自动调用 dcu 算子用于执行模型计算。关于设备指定的更多细节,可以参考官方 api paddle.set_device。参数
-c paddlex/configs/image_classification/ResNet50.yaml
表示读取指定目录下的配置文件,配置文件中指定了模型结构,训练超参等所有训练模型需要用到的配置,该文件中指定的模型结构为ResNet50
python main.py -c paddlex/configs/image_classification/ResNet50.yaml \
-o Global.mode=train \
-o Global.dataset_dir=./dataset/cls_flowers_examples \
-o Global.output=resnet50_output \
-o Global.device="gpu:0,1,2,3"
上述命令会在 PaddleX
目录下产生一个 resnet50_output/
目录,该目录会存放训练过程中的模型参数
四、模型推理¶
基于 PaddleInference 推理¶
训练完成后,最优权重放在 resnet50_output/best_model/
目录下,其中 inference.pdiparams
、inference.pdiparams.info
、inference.pdmodel
3 个文件为静态图文件,用于推理使用,使用如下命令进行推理
python main.py -c paddlex/configs/image_classification/ResNet50.yaml \
-o Global.mode=predict \
-o Predict.model_dir="./resnet50_output/best_model" \
-o Predict.input_path="https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_image_classification_001.jpg" \
-o Global.device="gpu:0"
转换 ONNX 模型¶
如果您有额外的部署需求需要基于 ONNX 实现,我们也提供了专用的工具用于导出 ONNX 模型,参考如下步骤,即可将第一步导出的静态图模型转换为 ONNX 模型:
a. 安装环境
# 安装 paddle2onnx,该工具支持将 PaddleInference 模型转换为 ONNX 格式
python -m pip install paddle2onnx
b. 模型转换
paddle2onnx --model_dir=./resnet50_output/best_model/ \
--model_filename=inference.pdmodel \
--params_filename=inference.pdiparams \
--save_file=./resnet50_output/best_model/inference.onnx \
--enable_onnx_checker=True
该命令会在 resnet50_output/best_model
目录下生成 inference.onnx
文件
基于 PaddleX 训练 DeepLabv3+¶
一、安装 PaddleX 依赖¶
# 跳转到 PaddleX 根目录下
cd /path/to/paddlex
# 安装 PaddleX 相关依赖,由于我们使用的是图像分割模型,因此安装图像分割库
paddlex --install PaddleSeg
# 完成安装后会有如下提示:
# All packages are installed.
二、数据准备¶
为了快速上手验证,我们基于 PaddleX 准备的 Demo 数据集进行快速体验:
下载数据集
# 跳转到 PaddleX 根目录下
cd /path/to/paddlex
# 下载并解压数据
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/seg_optic_examples.tar -P ./dataset
tar -xf ./dataset/seg_optic_examples.tar -C ./dataset/
数据校验
# PaddleX 支持对数据集进行校验,确保数据集格式符合 PaddleX 的相关要求。同时在数据校验时,能够对数据集进行分析,统计数据集的基本信息。
python main.py -c paddlex/configs/semantic_segmentation/Deeplabv3_Plus-R50.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/seg_optic_examples
# 命令运行成功后会在 log 中打印出 Check dataset passed ! 信息
更多关于 PaddleX 数据集说明的内容,可以查看 PaddleX 数据集校验
三、模型训练¶
进入 PaddleX
目录下,执行如下命令启动 4 卡 DCU(0 ~ 3 号卡)训练,其中:
参数
-o Global.device
指定的是即将运行的设备,这里需要传入的是gpu:0,1,2,3
,通过指定该参数,PaddleX 调用飞桨的设备指定接口paddle.set_device
来指定运行设备为gpu
,在进行模型训练时,飞桨将自动调用 dcu 算子用于执行模型计算。关于设备指定的更多细节,可以参考官方 api paddle.set_device。参数
-c paddlex/configs/semantic_segmentation/Deeplabv3_Plus-R50.yaml
表示读取指定目录下的配置文件,配置文件中指定了模型结构,训练超参等所有训练模型需要用到的配置,该文件中指定的模型结构为Deeplabv3_Plus-R50
python main.py -c paddlex/configs/semantic_segmentation/Deeplabv3_Plus-R50.yaml \
-o Global.mode=train \
-o Global.dataset_dir=./dataset/seg_optic_examples \
-o Global.output=deeplabv3p_output \
-o Global.device="gpu:0,1,2,3"
上述命令会在 PaddleX
目录下产生一个 deeplabv3p_output/
目录,该目录会存放训练过程中的模型参数
四、模型推理¶
基于 PaddleInference 推理¶
训练完成后,最优权重放在 deeplabv3p_output/best_model/
目录下,其中 model/inference.pdiparams
、model/inference.pdiparams.info
、model/inference.pdmodel
3 个文件为静态图文件,用于推理使用,使用如下命令进行推理
python main.py -c paddlex/configs/semantic_segmentation/Deeplabv3_Plus-R50.yaml \
-o Global.mode=predict \
-o Predict.model_dir="./deeplabv3p_output/best_model/model/" \
-o Predict.input_path="https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_semantic_segmentation_001.jpg" \
-o Global.device="gpu:0"