大家有试过对OCR提取的内容做一些特殊的提取吗? 如果有,看能否分享一下你们的实践经验。 我的产品思路如下: 1.用户通过OCR识别,识别全部票据/单据文字。 2. 通过n8n连接一个 LLM模型(比如qwen3-32B),让它提取一个我需要的内容并格式化。 3. 输出Json 数据,给 后端接口或者前端Web程序调用。 另外就是,可以考虑在OCR识别方面直接处理,比如指定提取OCR的文字JSON格式,只识别需要的部分数据,这个我认为应该可以大大提高OCR的并发和GPU/CPU效率。