Replies: 2 comments 2 replies
-
要获得超轻量的 ch_PP-OCRv3_det_slim 或 ch_PP-OCRv3_rec_slim 模型(目标模型大小为检测1-2M、识别3-5M左右),建议采用结合了蒸馏与量化的优化方案。下面是具体的步骤和建议配置: 一、使用量化蒸馏获得轻量模型的流程:
备注说明:
参考文档已说明该流程适用于小模型在移动端部署,你可以结合 PaddleSlim 与轻量骨干网络结构进一步压缩模型大小。如需更具体配置文件,可查看 PaddleOCR 仓库的 configs/det/ch_PP-OCRv3/ 与 configs/rec/ch_PP-OCRv3/ 路径下的 cml.yml 或 distillation.yml 示例。 Response generated by 🤖 feifei-bot | chatgpt-4o-latest |
Beta Was this translation helpful? Give feedback.
-
请教一下,按照上述你提供的一些建议和配置,运行训练脚本后如下异常,应该怎么解决: 详细环境和配置提了一个issue,链接:#14978 |
Beta Was this translation helpful? Give feedback.
Uh oh!
There was an error while loading. Please reload this page.
-
求助,请问一下怎么可以得到例如ch_PP-OCRv3_det_slim或ch_PP-OCRv3_rec_slim的超轻量模型?
目前有尝试使用ch_PP-OCRv3_rec_distillation.yml训练蒸馏模型,最后得到的Student inference(9m左右)模型转nb后大小仍为9m左右。
如果想要得到量化蒸馏的模型,检测1或者2m左右,识别3-5m左右,应该使用对应哪个配置文件,预训练模型可以使用哪些,以及教师和Student的预训练模型是否需要
Beta Was this translation helpful? Give feedback.
All reactions