Replies: 1 comment
-
|
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
README示例中给出的model.chat()方法似乎只能完成单样本的对话生成,无法进行批量推理。
为了实现批量推理,我观察到模型实际上是在调用配置文件modeling_chatglm.py中的代码进行推理,于是我将其中
ChatGLMForConditionalGeneration
类下的成员函数chat()
简单修改如下,以实现batch推理(代码见最下方)。这可以跑通,但在实际使用时,我遇到了这样的问题:
我还没有完全确定这到底是哪个环节的问题。
以下是将程序强制中断时的报错信息:(其中batch_inference_chatglm.py是我自己实现的batch推理函数所在文件)
有时也会观察到在其他行终止,例如:
下面是自己实现的batch推理方式 (上述报错日志中的
batch_inference_chatglm.py
):我想请教的问题是
1、是否是我相关依赖的版本存在不匹配问题,或者是我自己实现成batch inference代码本身存在一些BUG,造成了上述现象?
2、有无更高效的batch推理实现?
谢谢!
Beta Was this translation helpful? Give feedback.
All reactions