File tree Expand file tree Collapse file tree 4 files changed +6
-7
lines changed Expand file tree Collapse file tree 4 files changed +6
-7
lines changed Original file line number Diff line number Diff line change 61
61
| armv7| OFF| ON| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios.armv7.with_cv.tiny_publish.tar.gz ) |
62
62
| armv7| ON| OFF| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios.armv7.with_extra.tiny_publish.tar.gz ) |
63
63
| armv7| ON| ON| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios.armv7.with_cv.with_extra.tiny_publish.tar.gz ) |
64
- | armv8| OFF| OFF| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios64 .armv8.tiny_publish.tar.gz ) |
65
- | armv8| OFF| ON| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios64 .armv8.with_cv.tiny_publish.tar.gz ) |
66
- | armv8| ON| OFF| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios64 .armv8.with_extra.tiny_publish.tar.gz ) |
67
- | armv8| ON| ON| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios64 .armv8.with_cv.with_extra.tiny_publish.tar.gz ) |
64
+ | armv8| OFF| OFF| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios .armv8.tiny_publish.tar.gz ) |
65
+ | armv8| OFF| ON| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios .armv8.with_cv.tiny_publish.tar.gz ) |
66
+ | armv8| ON| OFF| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios .armv8.with_extra.tiny_publish.tar.gz ) |
67
+ | armv8| ON| ON| [ release/v2.8-rc] ( https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios .armv8.with_cv.with_extra.tiny_publish.tar.gz ) |
68
68
69
69
70
70
## x86 Linux
Original file line number Diff line number Diff line change @@ -68,7 +68,7 @@ PaddlePaddle模型有两种保存格式:
68
68
| --optimize_out_type | 输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化实现。若您需要在mobile端执行模型预测,请将此选项设置为naive_buffer。默认为protobuf。 |
69
69
| --optimize_out | 优化模型的输出路径。 |
70
70
| --valid_targets | 指定模型可执行的backend,默认为arm。目前可支持x86、x86_opencl、arm、opencl、npu,可以同时指定多个backend(以空格分隔),Model Optimize Tool将会自动选择最佳方式。如果需要支持华为NPU(Kirin 810/990 Soc搭载的达芬奇架构NPU),应当设置为"npu,arm"。 |
71
- | --record_tailoring_info | 当使用 [ 根据模型裁剪库文件] ( ./library_tailoring.html ) 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false。 |
71
+ | --record_tailoring_info | 当使用 [ 根据模型裁剪库文件] ( ../../source_compile /library_tailoring.html ) 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false。 |
72
72
| --quant_model | 设置是否使用opt中的动态离线量化功能。 |
73
73
| --quant_type | 指定opt中动态离线量化功能的量化类型,可以设置为QUANT_INT8和QUANT_INT16,即分别量化为int8和int16。量化为int8对模型精度有一点影响,模型体积大概减小4倍。量化为int16对模型精度基本没有影响,模型体积大概减小2倍。|
74
74
Original file line number Diff line number Diff line change @@ -72,7 +72,7 @@ paddle_lite_opt \
72
72
| --optimize_out_type | 输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化实现。若您需要在mobile端执行模型预测,请将此选项设置为naive_buffer。默认为protobuf。 |
73
73
| --optimize_out | 优化模型的输出路径。 |
74
74
| --valid_targets | 指定模型可执行的backend,默认为arm。目前可支持x86、arm、opencl、x86_opencl、npu,可以同时指定多个backend(以空格分隔),Model Optimize Tool将会自动选择最佳方式。如果需要支持华为NPU(Kirin 810/990 Soc搭载的达芬奇架构NPU),应当设置为"npu,arm"。 |
75
- | --record_tailoring_info | 当使用 [ 根据模型裁剪库文件] ( ./library_tailoring.html ) 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false。 |
75
+ | --record_tailoring_info | 当使用 [ 根据模型裁剪库文件] ( ../../source_compile /library_tailoring.html ) 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false。 |
76
76
| --quant_model | 设置是否使用opt中的动态离线量化功能。 |
77
77
| --quant_type | 指定opt中动态离线量化功能的量化类型,可以设置为QUANT_INT8和QUANT_INT16,即分别量化为8比特和16比特。 量化为int8对模型精度有一点影响,模型体积大概减小4倍。量化为int16对模型精度基本没有影,模型体积大概减小2倍。|
78
78
Original file line number Diff line number Diff line change 3
3
X2Paddle可以将caffe、tensorflow、onnx模型转换成Paddle支持的模型。目前支持版本为caffe 1.0;tensorflow 1.x,推荐1.4.0;ONNX 1.6.0,OpSet支持 9, 10, 11版本。如果您使用的是PyTorch框架,请先转换为ONNX模型之后再使用X2Paddle工具转化为Paddle模型。
4
4
5
5
[ X2Paddle] ( https://github.com/PaddlePaddle/X2Paddle ) 支持将Caffe/TensorFlow/ONNX模型转换为PaddlePaddle模型。
6
- 支持的模型可参考[ X2Paddle模型测试库] ( https://github.com/PaddlePaddle/X2Paddle/blob/develop/x2paddle_model_zoo.md ) 。
7
6
8
7
9
8
You can’t perform that action at this time.
0 commit comments