File tree Expand file tree Collapse file tree 1 file changed +3
-3
lines changed
model_zoo/ernie-3.0/deploy/paddle2onnx Expand file tree Collapse file tree 1 file changed +3
-3
lines changed Original file line number Diff line number Diff line change 11
11
- [ 3.2 模型转换] ( #32-模型转换 )
12
12
- [ 3.3 ONNXRuntime推理样例] ( #33-ONNXRuntime推理样例 )
13
13
## 1. 环境准备
14
- ERNIE 3.0模型转换与ONNXRuntime预测部署依赖Paddle2ONNX和ONNXRuntime,Paddle2ONNX支持将Paddle模型转化为ONNX模型格式,算子目前稳定支持导出ONNX Opset 7~ 15,更多细节可参考: [ Paddle2ONNX] ( https://github.com/PaddlePaddle/Paddle2ONNX )
14
+ ERNIE 3.0模型转换与ONNXRuntime预测部署依赖Paddle2ONNX和ONNXRuntime,Paddle2ONNX支持将Paddle模型转化为ONNX模型格式,算子目前稳定支持导出ONNX Opset 7~ 15,更多细节可参考: [ Paddle2ONNX] ( https://github.com/PaddlePaddle/Paddle2ONNX )
15
15
如果基于CPU部署,请使用如下命令安装所需依赖:
16
16
```
17
17
python -m pip install onnxruntime
@@ -34,7 +34,7 @@ unzip msra_ner_pruned_infer_model.zip
34
34
```
35
35
paddle2onnx --model_dir msra_ner_pruned_infer_model/ --model_filename float32.pdmodel --params_filename float32.pdiparams --save_file ner_model.onnx --opset_version 13 --enable_onnx_checker True
36
36
```
37
- Paddle2ONNX的命令行参数说明请查阅:[ Paddle2ONNX命令行参数说明] ( https://github.com/PaddlePaddle/Paddle2ONNX )
37
+ Paddle2ONNX的命令行参数说明请查阅:[ Paddle2ONNX命令行参数说明] ( https://github.com/PaddlePaddle/Paddle2ONNX#参数选项 )
38
38
39
39
### 2.3 ONNXRuntime推理样例
40
40
请使用如下命令进行部署
@@ -78,7 +78,7 @@ unzip tnews_pruned_infer_model.zip
78
78
```
79
79
paddle2onnx --model_dir tnews_pruned_infer_model/ --model_filename float32.pdmodel --params_filename float32.pdiparams --save_file tnews_model.onnx --opset_version 13 --enable_onnx_checker True
80
80
```
81
- Paddle2ONNX的命令行参数说明请查阅:[ Paddle2ONNX命令行参数说明] ( https://github.com/PaddlePaddle/Paddle2ONNX )
81
+ Paddle2ONNX的命令行参数说明请查阅:[ Paddle2ONNX命令行参数说明] ( https://github.com/PaddlePaddle/Paddle2ONNX#参数选项 )
82
82
83
83
### 3.3 ONNXRuntime推理样例
84
84
请使用如下命令进行部署
You can’t perform that action at this time.
0 commit comments