首先请参考文档环境准备配置运行环境。
首先请参考文档模型导出准备 inference 模型,然后进入 PaddleClas 的 deploy 目录下:
cd PaddleClas/deploy使用以下命令进行预测:
python3.7 python/predict_cls.py -c configs/inference_cls.yaml在配置文件 configs/inference_cls.yaml 中有以下字段用于配置预测参数:
Global.infer_imgs:待预测的图片文件(夹)路径;Global.inference_model_dir:inference 模型文件所在文件夹的路径,该文件夹下需要有文件inference.pdmodel和inference.pdiparams两个文件;Global.use_gpu:是否使用 GPU 预测,默认为True;Global.enable_mkldnn:是否启用MKL-DNN加速库,默认为False。注意enable_mkldnn与use_gpu同时为True时,将忽略enable_mkldnn,而使用 GPU 预测;Global.use_fp16:是否启用FP16,默认为False;Global.use_tensorrt:是否使用 TesorRT 预测引擎,默认为False;PreProcess:用于数据预处理配置;PostProcess:由于后处理配置;PostProcess.Topk.class_id_map_file:数据集 label 的映射文件,默认为../ppcls/utils/imagenet1k_label_list.txt,该文件为 PaddleClas 所使用的 ImageNet 数据集 label 映射文件。
注意:
- 如果使用 VisionTransformer 系列模型,如
DeiT_***_384,ViT_***_384等,请注意模型的输入数据尺寸,该类模型需要修改参数:PreProcess.resize_short=384,PreProcess.resize=384。 - 如果你希望提升评测模型速度,使用 GPU 评测时,建议开启 TensorRT 加速预测,使用 CPU 评测时,建议开启 MKL-DNN 加速预测。