Skip to content

Question: 无法使用本地部署好的Vllm模型 #511

@xiaobai-789

Description

@xiaobai-789

无法使用本地部署好的Vllm模型,我使用的是qwen3-8B,在该系统配置好Vlllm后提问报错,但是我在postman中调用Vllm接口可以正常使用。

Metadata

Metadata

Assignees

No one assigned

    Labels

    questionFurther information is requested

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions