Contact Information
No response
MaxKB Version
1.10
Problem Description
高级编排->图片理解,设置输出最大token数为65536,在后端查看vllm的log,发现max token请求参数是800,改成10的话,也是800。
大语言模型没这个问题
Steps to Reproduce
高级编排->图片理解,设置输出最大token数为65536,在后端查看vllm的log,发现max token请求参数是800,改成10的话,也是800。
大语言模型没这个问题
The expected correct result
max token能被设置为高级编排中的设置值
Related log output
Additional Information
No response