Replies: 2 comments 1 reply
-
|
你遇到的依赖冲突(vllm 需要 protobuf >=6.30.0,paddlepaddle-gpu 需要 protobuf <=3.20.2)在当前 Python/conda 生态下无法在同一个环境中直接解决。MinerU 官方文档明确说明,像 vllm、lmdeploy 这类推理加速模块本身依赖冲突严重,不建议同时安装,且没有提供强行兼容的办法。官方推荐的做法是:
没有发现官方或社区推荐通过手动降级/升级 protobuf 等方式强行兼容 vllm 和 paddlepaddle-gpu 的可行方案。建议根据你的实际需求选择合适的环境隔离方式。参考1 参考2 To reply, just mention @dosu. How did I do? Good | Irrelevant | Incorrect | Verbose | Hallucination | Report 🐛 | Other |
Beta Was this translation helpful? Give feedback.
0 replies
-
|
windows需要使用lmdeploy或在wsl2中使用vllm |
Beta Was this translation helpful? Give feedback.
1 reply
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
环境是win10平台
https://opendatalab.github.io/MinerU/zh/quick_start/extension_modules/#_2

这是ai的分子
vllm 要求 protobuf 版本为 >=6.30.0。
paddlepaddle-gpu 需要 protobuf <=3.20.2,但你已经安装了较新的版本。
解决方案:
Beta Was this translation helpful? Give feedback.
All reactions