### Description【描述】 ollama在大模型本地部署上面及其方便,如果能够对接ollama的api就好了 这样的话,只需要下载好ollama,再一键下载LLM,后台运行ollama,扩展就可以使用了