Skip to content

Commit a13c2e0

Browse files
committed
docs(models): 更新默认模型和文档说明
- 将默认模型从 Qwen/Qwen3-32B 更新为 zai-org/GLM-4.5 - 移除 DeepSeek 相关模型配置 - 更新 README 中的模型推荐和文档说明 - 调整 LightRAG 默认配置为 siliconflow/Qwen3-30B-A3B-Instruct-2507
1 parent 6dee4ed commit a13c2e0

File tree

4 files changed

+17
-23
lines changed

4 files changed

+17
-23
lines changed

README.md

Lines changed: 13 additions & 16 deletions
Original file line numberDiff line numberDiff line change
@@ -54,7 +54,7 @@ https://github.com/user-attachments/assets/15f7f315-003d-4e41-a260-739c2529f824
5454
SILICONFLOW_API_KEY=sk-270ea********8bfa97.e3XOMd****Q1Sk
5555
```
5656
> 💡 [免费获取 SiliconFlow API Key](https://cloud.siliconflow.cn/i/Eo5yTHGJ)(注册即送 14 元额度)
57-
> 💡 [免费获取 智谱 API Key](https://www.bigmodel.cn/invite?icode=6BruxYJDdROL5pQX%2FOeYvA%3D%3D)(注册即送 2000 万Tokens)
57+
> 💡 [免费获取 智谱 API Key](https://www.bigmodel.cn/invite?icode=6BruxYJDdROL5pQX%2FOeYvA%3D%3D)(注册即送 2000 万Tokens,限 GLM-4.5-air
5858
5959
3. **启动服务**
6060
```bash
@@ -117,15 +117,14 @@ ENV HTTP_PROXY=http://IP:PORT \
117117
### 对话模型
118118

119119
支持多种 API 服务商,配置对应的 `API_KEY` 即可使用:
120-
121-
| 服务商 | 推荐模型 | 环境变量 | 备注 |
122-
|--------|---------|----------|------|
123-
| 硅基流动 | `Qwen2.5-7B-Instruct` | `SILICONFLOW_API_KEY` | 🆓 免费,默认 |
124-
| OpenAI | `gpt-4o` | `OPENAI_API_KEY` | |
125-
| DeepSeek | `deepseek-chat` | `DEEPSEEK_API_KEY` | |
126-
| OpenRouter | `openrouter` | `OPENROUTER_API_KEY` | |
127-
| 智谱清言 | `glm-4-flash` | `ZHIPUAI_API_KEY` | |
128-
| 阿里云百炼 | `qwen-max-latest` | `DASHSCOPE_API_KEY` | |
120+
| 服务商 | 环境变量 | 备注 |
121+
|--------|----------|------|
122+
| 硅基流动 | `SILICONFLOW_API_KEY` | 🆓 免费,默认 |
123+
| OpenAI | `OPENAI_API_KEY` | |
124+
| DeepSeek | `DEEPSEEK_API_KEY` | |
125+
| OpenRouter | `OPENROUTER_API_KEY` | |
126+
| 智谱清言 | `ZHIPUAI_API_KEY` | |
127+
| 阿里云百炼 | `DASHSCOPE_API_KEY` | |
129128

130129
<details>
131130
<summary>自定义模型供应商</summary>
@@ -151,12 +150,6 @@ custom-provider-name-here:
151150
项目理论上兼容任何 OpenAI 兼容的模型,包括但不限于 vLLM、Ollama 或者其他 API 中转或者代理服务。在 Web 界面的"设置"中添加本地模型地址。
152151
153152
154-
<!-- |模型选择|自定义模型地址|
155-
|--|--|
156-
|![知识库可视化](./docs/images/select_model.png)|![本地模型配置](./docs/images/add_custom_model.png)| -->
157-
158-
159-
160153
## 📚 功能详解
161154
162155
### 知识库管理
@@ -169,12 +162,15 @@ custom-provider-name-here:
169162

170163
在 v0.2 版本中,项目支持了基于 [LightRAG](https://github.com/HKUDS/LightRAG) 的知识图谱构建方法。需要在知识库中创建一个基于 LightRAG 的知识库,然后上传文档。构建的知识图谱会自动导入到 Neo4j 中,并使用不同的 label 做区分。需要说明的是,基于 LightRAG 的知识库,可以在知识库详情中可视化,但是不能在侧边栏的图谱中检索,知识图谱检索工具也不支持基于 LightRAG 的知识库进行检索。基于 LightRAG 方法构建的图谱的查询,需要使用对应的知识库作为查询工具。
171164

165+
默认使用的图谱构建模式是 `siliconflow` 的 `Qwen/Qwen3-30B-A3B-Instruct-2507`,可以使用 `LIGHTRAG_LLM_PROVIDER` 和 `LIGHTRAG_LLM_NAME` 覆盖。
166+
172167
|知识库可视化|Neo4J管理端|
173168
|--|--|
174169
|![知识库可视化](./docs/images/lightrag_kb.png)|![Neo4J管理端](./docs/images/neo4j_browser.png)|
175170

176171
除此之外,也支持将已有的知识图谱按照下面的格式导入 Neo4j 中,上传后,节点会自动添加 `Upload`、`Entity` 标签,关系会自动添加 `Relation` 标签。可以通过 `name` 属性访问实体的名称,使用 `type` 属性访问边的名称。默认账户密码是`neo4j` / `0123456789`。
177172

173+
178174
**数据格式**:支持 JSONL 格式导入
179175
```jsonl
180176
{"h": "北京", "t": "中国", "r": "首都"}
@@ -183,6 +179,7 @@ custom-provider-name-here:
183179

184180
此外,也可以通过修改 `docker-compose.yml` 中的 `NEO4J_URI` 配置来接入已有的 Neo4j 实例,但是最好确保每个节点都有 Entity 标签,否则会影响到图的检索与构建。
185181

182+
注:在“图谱”页面,只能看到上传的节点和边,基于 LightRAG 构建的图谱不会展示在里面,完整的图谱可以去 Neo4j 管理页面查看。
186183

187184
## 🔧 高级配置
188185

src/config/__init__.py

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -55,7 +55,7 @@ def __init__(self):
5555
## 注意这里是模型名,而不是具体的模型路径,默认使用 HuggingFace 的路径
5656
## 如果需要自定义本地模型路径,则在 src/.env 中配置 MODEL_DIR
5757
self.add_item("model_provider", default="siliconflow", des="模型提供商", choices=list(self.model_names.keys()))
58-
self.add_item("model_name", default="Qwen/Qwen3-32B", des="模型名称")
58+
self.add_item("model_name", default="zai-org/GLM-4.5", des="模型名称")
5959

6060
self.add_item("embed_model", default="siliconflow/BAAI/bge-m3", des="Embedding 模型", choices=list(self.embed_model_names.keys()))
6161
self.add_item("reranker", default="siliconflow/BAAI/bge-reranker-v2-m3", des="Re-Ranker 模型", choices=list(self.reranker_names.keys())) # noqa: E501

src/knowledge/lightrag_kb.py

Lines changed: 2 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -16,8 +16,8 @@
1616
from src.utils import logger, hashstr, get_docker_safe_url
1717

1818

19-
LIGHTRAG_LLM_PROVIDER = os.getenv("LIGHTRAG_LLM_PROVIDER", "openai")
20-
LIGHTRAG_LLM_NAME = os.getenv("LIGHTRAG_LLM_NAME", "gpt-4.1-mini")
19+
LIGHTRAG_LLM_PROVIDER = os.getenv("LIGHTRAG_LLM_PROVIDER", "siliconflow")
20+
LIGHTRAG_LLM_NAME = os.getenv("LIGHTRAG_LLM_NAME", "Qwen/Qwen3-30B-A3B-Instruct-2507")
2121

2222

2323
class LightRagKB(KnowledgeBase):
@@ -120,7 +120,6 @@ async def llm_model_func(prompt, system_prompt=None, history_messages=[], **kwar
120120
history_messages=history_messages,
121121
api_key=model.api_key,
122122
base_url=model.base_url,
123-
# extra_body={"enable_thinking": False},
124123
**kwargs,
125124
)
126125
return llm_model_func

src/static/models.yaml

Lines changed: 1 addition & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -46,12 +46,10 @@ MODEL_NAMES:
4646
name: SiliconFlow
4747
url: https://cloud.siliconflow.cn/models
4848
base_url: https://api.siliconflow.cn/v1
49-
default: Qwen/Qwen3-8B
49+
default: zai-org/GLM-4.5
5050
env:
5151
- SILICONFLOW_API_KEY
5252
models:
53-
- Pro/deepseek-ai/DeepSeek-R1
54-
- Pro/deepseek-ai/DeepSeek-V3
5553
- Qwen/Qwen3-235B-A22B-Thinking-2507
5654
- Qwen/Qwen3-235B-A22B-Instruct-2507
5755
- moonshotai/Kimi-K2-Instruct

0 commit comments

Comments
 (0)