文本检测模型微调后,检测效果较差
#12280
Replies: 3 comments 1 reply
-
猜测和训练数据相关,训练数据对文本框的标注是否都为word-level?模型会拟合到训练数据中,如果需要line-level的推理结果,需要同步提供行级别的标注。 |
Beta Was this translation helpful? Give feedback.
1 reply
-
我也遇到了类似的问题,是否是数据集过少的原因呢?我目前只有100张训练集,但是不明白为什么训练得到的模型在训练集上测试的效果还那么差(出现漏检、检测不连续)。 |
Beta Was this translation helpful? Give feedback.
0 replies
-
和数据量大小有关也和模型结构有关,ppocr使用了轻量化的技术,参数量小意味着对反向传播很敏感,容易出现性能的起伏。可以尝试使用更深的backbone,应该会有改善 |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
参考:https://github.com/PaddlePaddle/PaddleOCR/blob/main/doc/doc_ch/finetune.md 进行模型微调




使用pp_ocrV3 student模型进行模型微调,训练500epoch,检测效果较差,出现检测框不连续、误检、漏检的现象,请问可能是什么原因。模型输出效果如下,后者为预训练模型输出(较好)
Beta Was this translation helpful? Give feedback.
All reactions