在Paddle 3.1.0中,HPI(高性能推理)是否值得坚持使用CUDA 11.6,为什么官方Docker镜像中缺少TensorRT? #15971
-
你好, 在Paddle(或PaddleX)版本3.1.0中,使用HPI(高性能推理)模式在使用PaddleOCR时能带来多少实际好处?这种收益是否足够显著,以至于值得坚持使用CUDA 11.6并放弃对更新CUDA版本的支持? 另外,我注意到最新的3.1.0版本的官方Docker镜像中不包含TensorRT。这有什么具体原因吗? |
Beta Was this translation helpful? Give feedback.
Answered by
Bobholamovic
Jul 17, 2025
Replies: 1 comment 4 replies
-
在文档中可以查看我们此前测量的各个模型启用高性能推理前后的耗时数据。不过,还是建议在你的环境中测试一下不同方案(例如CUDA 11.8+高性能推理,CUDA 12.6+普通推理)的速度,毕竟不同软硬件环境中,推理引擎的表现可能会存在差异,应当以实际测量情况为准。目前高性能推理也在支持CUDA 12中,预计在PaddleOCR 3.2版本能够体现。 PaddlePaddle 3.1.0暂不支持TensorRT,所以镜像中可能没有包含TensorRT。 |
Beta Was this translation helpful? Give feedback.
4 replies
Answer selected by
maakdan
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
在文档中可以查看我们此前测量的各个模型启用高性能推理前后的耗时数据。不过,还是建议在你的环境中测试一下不同方案(例如CUDA 11.8+高性能推理,CUDA 12.6+普通推理)的速度,毕竟不同软硬件环境中,推理引擎的表现可能会存在差异,应当以实际测量情况为准。目前高性能推理也在支持CUDA 12中,预计在PaddleOCR 3.2版本能够体现。
PaddlePaddle 3.1.0暂不支持TensorRT,所以镜像中可能没有包含TensorRT。