为什么我觉得paddleOcrV5没有使用GPU推理呢,一张图片运行了1.6秒,我以前使用的v4版本都是几百毫秒 #15755
-
from paddleocr import PaddleOCR 初始化 OCR 模型ocr = PaddleOCR( 记录开始时间start_time = time.time() 执行 OCR 识别image_path = r"C:\Users\chen\Desktop\PaddleOCR-3.0.1\PaddleOCR-3.0.1\5.jpg" 记录结束时间end_time = time.time() 计算耗时(秒)elapsed_time = end_time - start_time 输出结果和耗时for res in result:
打印运行时间print(f"\n✅ 图片识别完成,总耗时:{elapsed_time:.4f} 秒(即 {elapsed_time * 1000:.2f} 毫秒)") #控制台运行结果 ✅ 图片识别完成,总耗时:1.6217 秒(即 1621.70 毫秒) |
Beta Was this translation helpful? Give feedback.
Replies: 2 comments 1 reply
-
如果希望较准确地测试推理速度,建议多跑几轮取平均值。如果可能的话,可以加上预热逻辑。一般前几次推理速度会比较慢,后续逐渐达到正常速度~ |
Beta Was this translation helpful? Give feedback.
-
此外,在PaddleOCR 2.x中,默认使用的是mobile模型(高速度,精度次优),而PaddleOCR 3.0.1中默认使用server模型(高精度,速度次优),并且PP-OCRv5的文本识别模型由于字典容量几乎倍增,推理速度本身也慢于v4,这可能导致速度上的差异。 |
Beta Was this translation helpful? Give feedback.
此外,在PaddleOCR 2.x中,默认使用的是mobile模型(高速度,精度次优),而PaddleOCR 3.0.1中默认使用server模型(高精度,速度次优),并且PP-OCRv5的文本识别模型由于字典容量几乎倍增,推理速度本身也慢于v4,这可能导致速度上的差异。