File tree Expand file tree Collapse file tree 5 files changed +8
-7
lines changed Expand file tree Collapse file tree 5 files changed +8
-7
lines changed Original file line number Diff line number Diff line change @@ -12,7 +12,7 @@ PaddleX的安卓端部署由PaddleLite实现,部署的流程如下,首先将
1212## step 1. 将PaddleX模型导出为inference模型
1313
1414参考[ 导出inference模型] ( ../export_model.html ) 将模型导出为inference格式模型。
15- ** 注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型暂时无法直接用于预测部署,参考[ 模型版本升级] ( ./upgrade_version.md ) 对模型版本进行升级。**
15+ ** 注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型暂时无法直接用于预测部署,参考[ 模型版本升级] ( .. /upgrade_version.md ) 对模型版本进行升级。**
1616
1717## step 2. 将inference模型优化为PaddleLite模型
1818
@@ -79,7 +79,7 @@ PaddleX Android SDK是PaddleX基于Paddle-Lite开发的安卓端AI推理工具
7979- Paddle-Lite接口层,以Java接口封装了底层c++推理库。
8080- PaddleX业务层,封装了PaddleX导出模型的预处理,推理和后处理,以及可视化,支持PaddleX导出的检测、分割、分类模型。
8181
82- < img width = " 600 " src = " ../images/paddlex_android_sdk_framework.jpg " />
82+ ![ 架构 ] ( ../images/paddlex_android_sdk_framework.jpg )
8383
8484#### 3.3.1 SDK安装
8585
Original file line number Diff line number Diff line change 88
99 quant.md
1010 prune.md
11+ tutorials/index
Original file line number Diff line number Diff line change @@ -25,10 +25,10 @@ PaddleX提供了两种方式:
2525> 注:各模型内置的裁剪方案分别依据的数据集为: 图像分类——ImageNet数据集、目标检测——PascalVOC数据集、语义分割——CityScape数据集
2626
2727## 裁剪实验
28- 基于上述两种方案,我们在PaddleX上使用样例数据进行了实验,在Tesla P40上实验指标如下所示,使用方法见 [ 使用教程-模型压缩 ] ( ../../../../tutorials/compress/README.html )
28+ 基于上述两种方案,我们在PaddleX上使用样例数据进行了实验,在Tesla P40上实验指标如下所示:
2929
3030### 图像分类
31- 实验背景:使用MobileNetV2模型,数据集为蔬菜分类示例数据
31+ 实验背景:使用MobileNetV2模型,数据集为蔬菜分类示例数据,使用方法见 [ 使用教程-模型压缩-图像分类 ] ( ./tutorials/classification.html )
3232
3333| 模型 | 裁剪情况 | 模型大小 | Top1准确率(%) | GPU预测速度 | CPU预测速度 |
3434| :-----| :--------| :-------- | :---------- | :---------- | :----------|
@@ -37,7 +37,7 @@ PaddleX提供了两种方式:
3737| MobileNetV2 | 方案二(eval_metric_loss=0.10) | 6.0M | 99.58 | 5.42ms | 29.06ms |
3838
3939### 目标检测
40- 实验背景:使用YOLOv3-MobileNetV1模型,数据集为昆虫检测示例数据
40+ 实验背景:使用YOLOv3-MobileNetV1模型,数据集为昆虫检测示例数据,使用方法见 [ 使用教程-模型压缩-目标检测 ] ( ./tutorials/detection.html )
4141
4242| 模型 | 裁剪情况 | 模型大小 | MAP(%) | GPU预测速度 | CPU预测速度 |
4343| :-----| :--------| :-------- | :---------- | :---------- | :---------|
@@ -46,7 +46,7 @@ PaddleX提供了两种方式:
4646| YOLOv3-MobileNetV1 | 方案二(eval_metric_loss=0.05) | 29M | 50.27| 9.43ms | 360.46ms |
4747
4848### 语义分割
49- 实验背景:使用UNet模型,数据集为视盘分割示例数据
49+ 实验背景:使用UNet模型,数据集为视盘分割示例数据,使用方法见 [ 使用教程-模型压缩-语义分割 ] ( ./tutorials/segmentation.html )
5050
5151| 模型 | 裁剪情况 | 模型大小 | mIOU(%) | GPU预测速度 | CPU预测速度 |
5252| :-----| :--------| :-------- | :---------- | :---------- | :---------|
Original file line number Diff line number Diff line change 66定点量化使用更少的比特数(如8-bit、3-bit、2-bit等)表示神经网络的权重和激活值,从而加速模型推理速度。PaddleX提供了训练后量化技术,其原理可参见[ 训练后量化原理] ( https://paddlepaddle.github.io/PaddleSlim/algo/algo.html#id14 ) ,该量化使用KL散度确定量化比例因子,将FP32模型转成INT8模型,且不需要重新训练,可以快速得到量化模型。
77
88## 使用PaddleX量化模型
9- PaddleX提供了` export_quant_model ` 接口,让用户以接口的形式完成模型以post_quantization方式量化并导出。点击查看[ 量化接口使用文档] ( ../../apis/slim.html ) 。
9+ PaddleX提供了` export_quant_model ` 接口,让用户以接口的形式完成模型以post_quantization方式量化并导出。点击查看[ 量化接口使用文档] ( ../../../ apis/slim.html ) 。
1010
1111## 量化性能对比
1212模型量化后的性能对比指标请查阅[ PaddleSlim模型库] ( https://paddlepaddle.github.io/PaddleSlim/model_zoo.html )
You can’t perform that action at this time.
0 commit comments