-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy path.env.example
More file actions
59 lines (46 loc) · 1.73 KB
/
.env.example
File metadata and controls
59 lines (46 loc) · 1.73 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
# HyperHierarchicalRAG 環境配置範例
# 複製此檔案為 .env 並填入您的設定
# ==================== LLM 設定 ====================
# 選項: openai, ollama, azure
LLM_PROVIDER=openai
LLM_MODEL=gpt-4o-mini
# OpenAI API Key (必填如果使用 openai)
OPENAI_API_KEY=sk-your-api-key-here
# OpenAI API Base (可選,用於 Azure 或代理)
# OPENAI_API_BASE=https://api.openai.com/v1
# Ollama 設定 (如果使用 ollama)
# OLLAMA_HOST=http://localhost:11434
# ==================== Embedding 設定 ====================
EMBEDDING_PROVIDER=openai
EMBEDDING_MODEL=text-embedding-3-small
# ==================== 儲存設定 ====================
# LightRAG 資料目錄
LIGHTRAG_DIR=./data/lightrag
# Hypergraph 資料目錄
HYPERGRAPH_DIR=./data/hypergraph
# 可視化輸出目錄
VIZ_DIR=./data/visualizations
# ==================== Neo4j 設定 (可選) ====================
# NEO4J_URI=bolt://localhost:7687
# NEO4J_USER=neo4j
# NEO4J_PASSWORD=your-password
# ==================== 功能開關 ====================
ENABLE_HYPERGRAPH=true
ENABLE_MEMORY_EVOLUTION=true
ENABLE_VISUALIZATION=true
# ==================== MCP 內部 LLM 設定 ====================
# MCP Server 用於自動實體提取、記憶演化的內部 LLM
# 這獨立於外部 MCP 客戶端 (Claude/GPT)
MCP_INTERNAL_LLM_ENABLED=true
MCP_INTERNAL_LLM_PROVIDER=ollama
MCP_INTERNAL_LLM_MODEL=qwen2.5
MCP_INTERNAL_LLM_HOST=http://localhost:11434
# ==================== 多用戶儲存模式 ====================
# 選項: local (預設), sqlite, postgres, mongodb, hybrid
# STORAGE_MODE=local
# PostgreSQL (生產環境多用戶)
# POSTGRES_HOST=localhost
# POSTGRES_PORT=5432
# POSTGRES_USER=rag_user
# POSTGRES_PASSWORD=your-password
# POSTGRES_DATABASE=hyperhierarchical_rag