File tree Expand file tree Collapse file tree 3 files changed +35
-0
lines changed
source/images/provider-ollama Expand file tree Collapse file tree 3 files changed +35
-0
lines changed Original file line number Diff line number Diff line change @@ -75,6 +75,10 @@ export default defineConfig({
7575 text : '大语言模型提供商' ,
7676 link : '/provider'
7777 } ,
78+ {
79+ text : '接入 Ollama 使用 DeepSeek-R1 等模型' ,
80+ link : '/provider-ollama'
81+ } ,
7882 {
7983 text : '消息平台适配器' ,
8084 link : '/platform'
Original file line number Diff line number Diff line change 1+ ## 接入 Ollama 使用 DeepSeek-R1 等模型
2+
3+ Ollama 允许在本地电脑上部署模型(需要电脑硬件配置符合要求)
4+
5+ ### 下载并安装 Ollama
6+
7+ https://ollama.com/
8+
9+ ### 选择想要使用的模型
10+
11+ 在 https://ollama.com/search 上选择想要使用的模型。
12+
13+ 在终端上(windows 是 powershell)输入 ` ollama pull <model_name> ` 下载模型。
14+
15+ model_name 格式:` <model_name>:<model_version> ` 。如 ` deepseek-r1:8b ` 。
16+
17+ > 8b 参数量模型需要至少 16GB 显存。有关配置和参数量的详细信息,请参阅其他文档。
18+
19+ 拉取完成后,` ollama list ` 查看已经拉取的模型。
20+
21+ 然后使用 ` ollama run <model_name> ` 运行模型。
22+
23+ ### 配置 AstrBot
24+
25+ 在 AstrBot 上:
26+
27+ ![ ] ( ../source/images/provider-ollama/image.png )
28+
29+ 保存配置即可。
30+
31+ > 输入 /provider 查看 AstrBot 配置的模型
You can’t perform that action at this time.
0 commit comments