Replies: 2 comments
-
根据你的描述,如果目前在使用cpp_infer进行PP-OCRv4(例如v4_server模型)在CPU上的推理时耗时较长,更推荐使用FastDeploy进行C++推理部署,理由如下:
综上,如果你对推理速度有较高需求,建议迁移到FastDeploy部署方案,并尝试使用OpenVINO或ONNX Runtime等后端加速CPU推理。 你可以参考以下链接获取更多部署方法和后端切换说明:
如果你已经使用v4_server模型,建议确保FastDeploy版本为1.0.0以上,并使用支持Update至PP-OCRv4的代码和模型。 Response generated by 🤖 feifei-bot | chatgpt-4o-latest |
Beta Was this translation helpful? Give feedback.
-
既然你推荐使用FastDeploy来部署v4模型,然而我却发现FastDeploy已经有差不多两年没更新了,这个对于部署v4模型有影响吗? |
Beta Was this translation helpful? Give feedback.
Uh oh!
There was an error while loading. Please reload this page.
-
我发现使用该仓库的cpp_infer进行v4_server模型的cpu推理耗时非常长,就想问下目前使用c++进行模型推理是选择cpp_infer还是FastDeploy?
Beta Was this translation helpful? Give feedback.
All reactions