Skip to content

Commit c5a3d15

Browse files
authored
[Doc] Fix dead links in doc system
1 parent 3ee2959 commit c5a3d15

File tree

4 files changed

+6
-7
lines changed

4 files changed

+6
-7
lines changed

docs/quick_start/release_lib.md

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -61,10 +61,10 @@
6161
|armv7|OFF|ON|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios.armv7.with_cv.tiny_publish.tar.gz)|
6262
|armv7|ON|OFF|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios.armv7.with_extra.tiny_publish.tar.gz)|
6363
|armv7|ON|ON|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios.armv7.with_cv.with_extra.tiny_publish.tar.gz)|
64-
|armv8|OFF|OFF|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios64.armv8.tiny_publish.tar.gz)|
65-
|armv8|OFF|ON|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios64.armv8.with_cv.tiny_publish.tar.gz)|
66-
|armv8|ON|OFF|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios64.armv8.with_extra.tiny_publish.tar.gz)|
67-
|armv8|ON|ON|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios64.armv8.with_cv.with_extra.tiny_publish.tar.gz)|
64+
|armv8|OFF|OFF|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios.armv8.tiny_publish.tar.gz)|
65+
|armv8|OFF|ON|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios.armv8.with_cv.tiny_publish.tar.gz)|
66+
|armv8|ON|OFF|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios.armv8.with_extra.tiny_publish.tar.gz)|
67+
|armv8|ON|ON|[release/v2.8-rc](https://paddlelite-data.bj.bcebos.com/Release/2.8-rc/iOS/inference_lite_lib.ios.armv8.with_cv.with_extra.tiny_publish.tar.gz)|
6868

6969

7070
## x86 Linux

docs/user_guides/opt/opt_bin.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -68,7 +68,7 @@ PaddlePaddle模型有两种保存格式:
6868
| --optimize_out_type | 输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化实现。若您需要在mobile端执行模型预测,请将此选项设置为naive_buffer。默认为protobuf。 |
6969
| --optimize_out | 优化模型的输出路径。 |
7070
| --valid_targets | 指定模型可执行的backend,默认为arm。目前可支持x86、x86_opencl、arm、opencl、npu,可以同时指定多个backend(以空格分隔),Model Optimize Tool将会自动选择最佳方式。如果需要支持华为NPU(Kirin 810/990 Soc搭载的达芬奇架构NPU),应当设置为"npu,arm"。 |
71-
| --record_tailoring_info | 当使用 [根据模型裁剪库文件](./library_tailoring.html) 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false。 |
71+
| --record_tailoring_info | 当使用 [根据模型裁剪库文件](../../source_compile/library_tailoring.html) 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false。 |
7272
| --quant_model | 设置是否使用opt中的动态离线量化功能。 |
7373
| --quant_type | 指定opt中动态离线量化功能的量化类型,可以设置为QUANT_INT8和QUANT_INT16,即分别量化为int8和int16。量化为int8对模型精度有一点影响,模型体积大概减小4倍。量化为int16对模型精度基本没有影响,模型体积大概减小2倍。|
7474

docs/user_guides/opt/opt_python.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -72,7 +72,7 @@ paddle_lite_opt \
7272
| --optimize_out_type | 输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化实现。若您需要在mobile端执行模型预测,请将此选项设置为naive_buffer。默认为protobuf。 |
7373
| --optimize_out | 优化模型的输出路径。 |
7474
| --valid_targets | 指定模型可执行的backend,默认为arm。目前可支持x86、arm、opencl、x86_opencl、npu,可以同时指定多个backend(以空格分隔),Model Optimize Tool将会自动选择最佳方式。如果需要支持华为NPU(Kirin 810/990 Soc搭载的达芬奇架构NPU),应当设置为"npu,arm"。 |
75-
| --record_tailoring_info | 当使用 [根据模型裁剪库文件](./library_tailoring.html) 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false。 |
75+
| --record_tailoring_info | 当使用 [根据模型裁剪库文件](../../source_compile/library_tailoring.html) 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false。 |
7676
| --quant_model | 设置是否使用opt中的动态离线量化功能。 |
7777
| --quant_type | 指定opt中动态离线量化功能的量化类型,可以设置为QUANT_INT8和QUANT_INT16,即分别量化为8比特和16比特。 量化为int8对模型精度有一点影响,模型体积大概减小4倍。量化为int16对模型精度基本没有影,模型体积大概减小2倍。|
7878

docs/user_guides/x2paddle.md

Lines changed: 0 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -3,7 +3,6 @@
33
X2Paddle可以将caffe、tensorflow、onnx模型转换成Paddle支持的模型。目前支持版本为caffe 1.0;tensorflow 1.x,推荐1.4.0;ONNX 1.6.0,OpSet支持 9, 10, 11版本。如果您使用的是PyTorch框架,请先转换为ONNX模型之后再使用X2Paddle工具转化为Paddle模型。
44

55
[X2Paddle](https://github.com/PaddlePaddle/X2Paddle)支持将Caffe/TensorFlow/ONNX模型转换为PaddlePaddle模型。
6-
支持的模型可参考[X2Paddle模型测试库](https://github.com/PaddlePaddle/X2Paddle/blob/develop/x2paddle_model_zoo.md)
76

87

98

0 commit comments

Comments
 (0)