Skip to content

Commit b40b60c

Browse files
[docs] update compile_ios and fix markdown format (#7193)
1 parent 355bc97 commit b40b60c

File tree

4 files changed

+209
-123
lines changed

4 files changed

+209
-123
lines changed

docs/benchmark/benchmark_tools.md

Lines changed: 27 additions & 20 deletions
Original file line numberDiff line numberDiff line change
@@ -22,11 +22,12 @@ Benchmark 工具可方便快捷地评测给定模型在如下硬件上运行时
2222
# 在 Android 上运行性能测试
2323
## 编译
2424
根据[源码编译](../source_compile/compile_env)准备编译环境,建议使用 Docker 配置交叉编译环境。
25-
拉取 [Paddle-Lite](https://github.com/PaddlePaddle/Paddle-Lite) 代码,切换到特定分支,然后在 Paddle-Lite 根目录下执行编译命令:
25+
拉取 [Paddle Lite](https://github.com/PaddlePaddle/Paddle-Lite) 代码,切换到特定分支,然后在 Paddle Lite 根目录下执行编译命令:
2626
```
2727
./lite/tools/build_android.sh --toolchain=clang --with_benchmark=ON full_publish
2828
```
2929
可选参数:
30+
3031
| 参数 | 说明 | 可选值 | 默认值 |
3132
| :-- | :-- | :-- | :-- |
3233
| arch | 目标 ARM 架构 | armv7 / armv8 | armv8 |
@@ -109,11 +110,12 @@ avg = 32.723
109110

110111
# 在 ARMLinux 上运行性能测试
111112
根据[源码编译](../source_compile/compile_env)准备编译环境,建议使用 Docker 配置交叉编译环境。
112-
拉取 [Paddle-Lite](https://github.com/PaddlePaddle/Paddle-Lite) 代码,切换到特定分支,然后在 Paddle-Lite 根目录下执行编译命令:
113+
拉取 [Paddle Lite](https://github.com/PaddlePaddle/Paddle-Lite) 代码,切换到特定分支,然后在 Paddle Lite 根目录下执行编译命令:
113114
```
114115
./lite/tools/build_linux.sh --arch=armv8 --with_benchmark=ON full_publish
115116
```
116117
可选参数:
118+
117119
| 参数 | 说明 | 可选值 | 默认值 |
118120
| :-- | :-- | :-- | :-- |
119121
| arch | 目标 ARM 架构 | armv7 / armv8 | armv8 |
@@ -191,11 +193,12 @@ avg = 32.723
191193
# 在 Linux 上运行性能测试
192194
## 编译
193195
根据[源码编译](../source_compile/compile_env)准备编译环境,建议使用 Docker 配置环境。
194-
拉取 [Paddle-Lite](https://github.com/PaddlePaddle/Paddle-Lite) 代码,切换到特定分支,然后在 Paddle-Lite 根目录下执行编译命令:
196+
拉取 [Paddle Lite](https://github.com/PaddlePaddle/Paddle-Lite) 代码,切换到特定分支,然后在 Paddle Lite 根目录下执行编译命令:
195197
```
196198
./lite/tools/build_linux.sh --arch=x86 --with_benchmark=ON full_publish
197199
```
198200
可选参数:
201+
199202
| 参数 | 说明 | 可选值 | 默认值 |
200203
| :-- | :-- | :-- | :-- |
201204
| toolchain | 工具链 | gcc / clang | gcc |
@@ -216,6 +219,9 @@ avg = 32.723
216219
wget https://paddle-inference-dist.bj.bcebos.com/AI-Rank/mobile/MobileNetV1.tar.gz
217220
tar zxvf MobileNetV1.tar.gz
218221
222+
# 设置环境变量
223+
export LD_LIBRARY_PATH=build.lite.x86.gcc/third_party/install/mklml/lib/:$LD_LIBRARY_PATH
224+
219225
# 执行性能测试
220226
./build.lite.linux.x86.gcc/lite/api/benchmark_bin \
221227
--model_file=MobileNetV1/inference.pdmodel \
@@ -267,11 +273,12 @@ avg = 33.918
267273
# 在 OSX 上运行性能测试
268274
## 编译
269275
根据[源码编译](../source_compile/compile_env)准备编译环境,可以使用 Docker 配置环境,也可以使用系统原生开发环境。
270-
拉取 [Paddle-Lite](https://github.com/PaddlePaddle/Paddle-Lite) 代码,切换到特定分支,然后在 Paddle-Lite 根目录下执行编译命令:
276+
拉取 [Paddle Lite](https://github.com/PaddlePaddle/Paddle-Lite) 代码,切换到特定分支,然后在 Paddle Lite 根目录下执行编译命令:
271277
```
272278
./lite/tools/build_macos.sh --with_benchmark=ON x86
273279
```
274280
可选参数:
281+
275282
| 参数 | 说明 | 可选值 | 默认值 |
276283
| :-- | :-- | :-- | :-- |
277284
| toolchain | 工具链 | gcc / clang | gcc |
@@ -379,31 +386,31 @@ adb shell "cd /data/local/tmp/benchmark;
379386
```
380387

381388
### 在 NNAdapter 上运行模型
382-
NNAdapter已支持的新硬件列表如下
383-
- Huawei Kirin NPU
389+
NNAdapter 已支持的新硬件列表如下
390+
- Huawei Kirin NPU
384391
- Huawei Ascend NPU
385392
- Rockchip NPU
386393
- Imagination NNA
387394
- Mediatek APU
388395
- Amlogic NPU
389396

390-
PaddleLite在持续地开发不同新硬件所支持的算子。可以通过访问[https://github.com/PaddlePaddle/Paddle-Lite/blob/develop/lite/kernels/nnadapter/bridges/paddle_use_bridges.h](https://github.com/PaddlePaddle/Paddle-Lite/blob/develop/lite/kernels/nnadapter/bridges/paddle_use_bridges.h)获得最新的算子支持列表。
397+
Paddle Lite 在持续地开发不同新硬件所支持的算子。可以通过访问 [NNAdapter 算子支持列表](https://github.com/PaddlePaddle/Paddle-Lite/blob/develop/lite/kernels/nnadapter/bridges/paddle_use_bridges.h)获得最新的算子支持列表。
391398

392-
参考NNAdapter算子支持列表,当模型能够全部运行在某种新硬件上时,实际后端只有NNAdapter一种;当模型部分算子需要运行在x86 cpu或arm cpu上时,实际后端为包含NNAdapter和cpu在内的多种硬件(异构计算)。
399+
参考 NNAdapter 算子支持列表,当模型能够全部运行在某种新硬件上时,实际后端只有 NNAdapter 一种;当模型部分算子需要运行在 x86 cpu 或 arm cpu 上时,实际后端为包含 NNAdapter 和 cpu 在内的多种硬件(异构计算)。
393400

394-
#### NNAdapter运行时库及新硬件Driver Hal库编译
401+
#### NNAdapter 运行时库及新硬件 Driver Hal 库编译
395402
##### nnadapter.so
396403
- Huawei Kirin NPU / Mediatek NPU 请参考 『在 Android 上运行性能测试』编译预测库。
397404
— Huawei Ascend NPU(arm host) / Rockchip NPU / Imagination NNA / Amlogic NPU 请参考 『在 ARMLinux 上运行性能测试』编译预测库。
398405
- Huawei Ascend NPU(x86 host)请参考『在 Linux 上运行性能测试』编译预测库。
399-
- 新硬件所需的DDK可在PaddleLite通用示例程序[PaddleLite-generic-demo.tar.gz](https://paddlelite-demo.bj.bcebos.com/devices/generic/PaddleLite-generic-demo.tar.gz)中获取。
406+
- 新硬件所需的 DDK 可在 [Paddle Lite 通用示例程序](https://paddlelite-demo.bj.bcebos.com/devices/generic/PaddleLite-generic-demo.tar.gz)中获取。
400407

401408
##### driver hal库
402-
请参考[Paddle-Lite官方文档](https://paddle-lite.readthedocs.io/zh/develop/index.html)编译新硬件driver hal库
409+
请参考[Paddle Lite官方文档](https://paddle-lite.readthedocs.io/zh/develop/index.html)编译新硬件 driver hal 库
403410

404411
#### 在 Huawei Kirin NPU 上运行模型
405412
```shell
406-
拷贝HiAi DDK、benchmark_bin、nnadapter.so、模型文件到设备目录/data/local/tmp/benchmark
413+
拷贝 HiAi DDK、benchmark_bin、nnadapter.so、模型文件到设备目录`/data/local/tmp/benchmark`
407414
adb shell "cd /data/local/tmp/benchmark;
408415
export LD_LIBRARY_PATH=.:$LD_LIBRARY_PATH;
409416
./benchmark_bin \
@@ -418,8 +425,8 @@ adb shell "cd /data/local/tmp/benchmark;
418425

419426
#### 在 Huawei Ascend NPU 上运行模型
420427
```shell
421-
# Host侧为x86 cpu时
422-
拷贝Ascend DDK、benchmark_bin、nnadapter.so、模型文件到设备目录 WORKSPACE
428+
# Host 侧为 x86 cpu 时
429+
拷贝 Ascend DDK、benchmark_bin、nnadapter.so、模型文件到设备目录`WORKSPACE`
423430
export LD_LIBRARY_PATH=$WORKSPACE:$LD_LIBRARY_PATH
424431
./benchmark_bin \
425432
--model_file=MobileNetV1/inference.pdmodel \
@@ -431,8 +438,8 @@ export LD_LIBRARY_PATH=$WORKSPACE:$LD_LIBRARY_PATH
431438
--nnadapter_device_names=huawei_ascend_npu \
432439
--nnadapter_context_properties="HUAWEI_ASCEND_NPU_SELECTED_DEVICE_IDS=0"
433440

434-
# Host侧为arm cpu时
435-
拷贝Ascend DDK、benchmark_bin、nnadapter.so、模型文件到设备目录 WORKSPACE
441+
# Host 侧为 arm cpu 时
442+
拷贝 Ascend DDK、benchmark_bin、nnadapter.so、模型文件到设备目录`WORKSPACE`
436443
export LD_LIBRARY_PATH=$WORKSPACE:$LD_LIBRARY_PATH
437444
./benchmark_bin \
438445
--model_file=MobileNetV1/inference.pdmodel \
@@ -445,9 +452,9 @@ export LD_LIBRARY_PATH=$WORKSPACE:$LD_LIBRARY_PATH
445452
--nnadapter_context_properties="HUAWEI_ASCEND_NPU_SELECTED_DEVICE_IDS=0"
446453
```
447454

448-
#### Huawei Rockchip NPU 上运行模型
455+
#### 在 Rockchip NPU 上运行模型
449456
```shell
450-
拷贝rockchip npu DDK、benchmark_bin、nnadapter.so、模型文件到设备目录 WORKSPACE
457+
拷贝 Rockchip npu DDK、benchmark_bin、nnadapter.so、模型文件到设备目录`WORKSPACE`
451458
export LD_LIBRARY_PATH=$WORKSPACE:$LD_LIBRARY_PATH
452459
./benchmark_bin \
453460
--model_file=MobileNetV1/inference.pdmodel \
@@ -461,7 +468,7 @@ export LD_LIBRARY_PATH=$WORKSPACE:$LD_LIBRARY_PATH
461468

462469
#### 在 Imagination NNA 上运行模型
463470
```shell
464-
拷贝imagination DDK、benchmark_bin、nnadapter.so、模型文件到设备目录 WORKSPACE
471+
拷贝 Imagination DDK、benchmark_bin、nnadapter.so、模型文件到设备目录`WORKSPACE`
465472
export LD_LIBRARY_PATH=$WORKSPACE:$LD_LIBRARY_PATH
466473
./benchmark_bin \
467474
--model_file=MobileNetV1/inference.pdmodel \
@@ -475,7 +482,7 @@ export LD_LIBRARY_PATH=$WORKSPACE:$LD_LIBRARY_PATH
475482

476483
#### 在 Mediatek APU 上运行模型
477484
```shell
478-
拷贝Mediatek APU DDK、benchmark_bin、nnadapter.so、模型文件到设备目录/data/local/tmp/benchmark
485+
拷贝 Mediatek APU DDK、benchmark_bin、nnadapter.so、模型文件到设备目录`/data/local/tmp/benchmark`
479486
adb shell "cd /data/local/tmp/benchmark;
480487
export LD_LIBRARY_PATH=.:$LD_LIBRARY_PATH;
481488
./benchmark_bin \

docs/introduction/support_model_list.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -1,8 +1,8 @@
11
# 支持模型
22

3-
目前,Paddle-Lite 已严格验证 52 个模型的精度和性能。对视觉类模型做到了充分的支持,覆盖分类、检测和定位,也包含了特色的 OCR 模型的支持。对 NLP 模型也做到了广泛支持,包含翻译、语义表达等等。
3+
目前,Paddle Lite 已严格验证 52 个模型的精度和性能。对视觉类模型做到了充分的支持,覆盖分类、检测和定位,也包含了特色的 OCR 模型的支持。对 NLP 模型也做到了广泛支持,包含翻译、语义表达等等。
44

5-
除了已严格验证的模型,Paddle-Lite 对其他 CV 和 NLP 模型也可以做到大概率支持。
5+
除了已严格验证的模型,Paddle Lite 对其他 CV 和 NLP 模型也可以做到大概率支持。
66

77
| 类别 | 类别细分 | 模型 | 支持平台 |
88
|-|-|:-|:-|

docs/source_compile/compile_ios.md

Lines changed: 0 additions & 101 deletions
This file was deleted.

0 commit comments

Comments
 (0)