這是 deepwiki-open 的社群分支。
- 上游儲存庫有一個待處理的 PR (包含 #192),社群對此感興趣
- 此分支合併了該 PR 並進行積極開發更新
歡迎提交 PR!我會盡力積極審查和合併。請遵循原專案的貢獻指南。
- Google Embedder 支援 (來自 PR #192)
- 由於不熟悉其他語言,我只更新英文跟正體中文的 README.md。
以下為上游Repo說明
DeepWiki 是我個人對 DeepWiki 的實作嘗試,能為任何 GitHub、GitLab 或 BitBucket 儲存庫自動建立美觀、互動式的 wiki!只需輸入儲存庫名稱,DeepWiki 就會:
- 分析程式碼結構
- 產生全面的文件
- 建立視覺化圖表來解釋一切如何運作
- 將所有內容整理成一個易於導覽的 wiki
如果您想捐款,請前往上游Repo進行捐贈。作者是使這個開源專案成為可能的人。
- 即時文件:幾秒鐘內將任何 GitHub、GitLab 或 BitBucket 儲存庫轉換為 Wiki
- 私人儲存庫支援:使用個人存取權杖安全存取私人儲存庫
- 智慧分析:AI 驅動的程式碼結構和關係理解
- 精美圖表:自動產生 Mermaid圖表視覺化架構和資料流
- 簡易導覽:簡單、直觀的介面探索 Wiki
- 提問功能:使用 RAG 驅動的 AI 與您的儲存庫聊天,取得準確答案
- 深度研究:多輪研究過程,徹底調查複雜主題
- 多模型提供商:支援 Google Gemini、OpenAI、OpenRouter 和本機 Ollama 模型
- 靈活的嵌入模型:可選擇 OpenAI、Google AI 或本機 Ollama 嵌入以獲得最佳效能
# 複製儲存庫
git clone https://github.com/AsyncFuncAI/deepwiki-open.git
cd deepwiki-open
# 建立包含 API 金鑰的 .env 檔案
echo "GOOGLE_API_KEY=your_google_api_key" > .env
echo "OPENAI_API_KEY=your_openai_api_key" >> .env
# 可選:使用 Google AI 嵌入模型而非 OpenAI (若使用 Google 模型建議開啟)
echo "DEEPWIKI_EMBEDDER_TYPE=google" >> .env
# 可選:如果您想使用 OpenRouter 模型,新增 OpenRouter API 金鑰
echo "OPENROUTER_API_KEY=your_openrouter_api_key" >> .env
# 可選:如果 Ollama 不在本機執行,新增 Ollama 主機位址,預設為 http://localhost:11434
echo "OLLAMA_HOST=your_ollama_host" >> .env
# 可選:如果您想使用 Azure OpenAI 模型,新增 Azure API 金鑰、端點和版本
echo "AZURE_OPENAI_API_KEY=your_azure_openai_api_key" >> .env
echo "AZURE_OPENAI_ENDPOINT=your_azure_openai_endpoint" >> .env
echo "AZURE_OPENAI_VERSION=your_azure_openai_version" >> .env
# 使用 Docker Compose 執行
docker-compose up有關使用 DeepWiki 搭配 Ollama 和 Docker 的詳細說明,請參閱 Ollama 操作說明。
💡 取得這些金鑰的地方:
- 從 Google AI Studio 取得 Google API 金鑰
- 從 OpenAI Platform 取得 OpenAI API 金鑰
- 從 Azure Portal 取得 Azure OpenAI 憑證 - 建立一個 Azure OpenAI 資源並取得 API 金鑰、端點和 API 版本
在專案根目錄建立一個 .env 檔案,包含以下金鑰:
GOOGLE_API_KEY=your_google_api_key
OPENAI_API_KEY=your_openai_api_key
# 可選:使用 Google AI Embedder 分析文件 (若使用 Google 模型建議開啟)
DEEPWIKI_EMBEDDER_TYPE=google
# 可選:如果您想使用 OpenRouter 模型,新增此項
OPENROUTER_API_KEY=your_openrouter_api_key
# 可選:如果您想使用 Azure OpenAI 模型,新增此項
AZURE_OPENAI_API_KEY=your_azure_openai_api_key
AZURE_OPENAI_ENDPOINT=your_azure_openai_endpoint
AZURE_OPENAI_VERSION=your_azure_openai_version
# 可選:如果 Ollama 不在本機執行,新增 Ollama 主機位址,預設為 http://localhost:11434
OLLAMA_HOST=your_ollama_host
# 安裝 Python 相依性
pip install -r api/requirements.txt
# 啟動 API 伺服器
python -m api.main# 安裝 JavaScript 相依性
npm install
# 或
yarn install
# 啟動 Web 應用
npm run dev
# 或
yarn dev- 在瀏覽器中開啟 http://localhost:3000
- 輸入 GitHub、GitLab 或 Bitbucket 儲存庫(如
https://github.com/openai/codex、https://github.com/microsoft/autogen、https://gitlab.com/gitlab-org/gitlab或https://bitbucket.org/redradish/atlassian_app_versions) - 對於私人儲存庫,點擊「+ 新增存取權杖」並輸入您的 GitHub 或 GitLab 個人存取權杖
- 點擊「產生 Wiki」,見證奇蹟的發生!
DeepWiki 使用 AI 來:
- 複製並分析 GitHub、GitLab 或 Bitbucket 儲存庫(包括使用權杖驗證的私人儲存庫)
- 建立程式碼嵌入用於智慧檢索
- 使用上下文感知 AI 產生文件(使用 Google Gemini、OpenAI、OpenRouter、Azure OpenAI 或本機 Ollama 模型)
- 建立視覺化圖表解釋程式碼關係
- 將所有內容組織成結構化 Wiki
- 透過提問功能實現與儲存庫的智慧問答
- 透過深度研究功能提供深入研究能力
graph TD
A[使用者輸入 GitHub/GitLab/Bitbucket 儲存庫] --> AA{私人儲存庫?}
AA -->|是| AB[新增存取權杖]
AA -->|否| B[複製儲存庫]
AB --> B
B --> C[分析程式碼結構]
C --> D[建立程式碼嵌入]
D --> M{選擇模型提供商}
M -->|Google Gemini| E1[使用 Gemini 產生]
M -->|OpenAI| E2[使用 OpenAI 產生]
M -->|OpenRouter| E3[使用 OpenRouter 產生]
M -->|本機 Ollama| E4[使用 Ollama 產生]
M -->|Azure| E5[使用 Azure 產生]
E1 --> E[產生文件]
E2 --> E
E3 --> E
E4 --> E
E5 --> E
D --> F[建立視覺化圖表]
E --> G[組織為 Wiki]
F --> G
G --> H[互動式 DeepWiki]
classDef process stroke-width:2px;
classDef data stroke-width:2px;
classDef result stroke-width:2px;
classDef decision stroke-width:2px;
class A,D data;
class AA,M decision;
class B,C,E,F,G,AB,E1,E2,E3,E4,E5 process;
class H result;
deepwiki/
├── api/ # 後端 API 伺服器
│ ├── main.py # API 進入點
│ ├── api.py # FastAPI 實作
│ ├── rag.py # 檢索增強產生
│ ├── data_pipeline.py # 資料處理工具
│ └── requirements.txt # Python 相依性
│
├── src/ # 前端 Next.js 應用
│ ├── app/ # Next.js 應用目錄
│ │ └── page.tsx # 主應用頁面
│ └── components/ # React 元件
│ └── Mermaid.tsx # Mermaid圖表渲染器
│
├── public/ # 靜態資源
├── package.json # JavaScript 相依性
└── .env # 環境變數(需要建立)
DeepWiki 現在實作了靈活的基於提供商的模型選擇系統,支援多種 LLM 提供商:
- Google:預設
gemini-2.5-flash,也支援gemini-2.5-flash-lite、gemini-2.5-pro等 - OpenAI:預設
gpt-5-nano,也支援gpt-5,4o等 - OpenRouter:透過統一 API 存取多種模型,包括 Claude、Llama、Mistral 等
- Azure OpenAI:預設
gpt-4o,也支援o4-mini等 - Ollama:支援本機執行的開源模型,如
llama3
每個提供商都需要對應的 API 金鑰環境變數:
# API 金鑰
GOOGLE_API_KEY=your_google_api_key # 使用 Google Gemini 模型時必需
OPENAI_API_KEY=your_openai_api_key # 使用 OpenAI 模型時必需
OPENROUTER_API_KEY=your_openrouter_api_key # 使用 OpenRouter 模型時必需
AZURE_OPENAI_API_KEY=your_azure_openai_api_key # 使用 Azure OpenAI 模型時必需
AZURE_OPENAI_ENDPOINT=your_azure_openai_endpoint # 使用 Azure OpenAI 模型時必需
AZURE_OPENAI_VERSION=your_azure_openai_version # 使用 Azure OpenAI 模型時必需
# OpenAI API 基礎 URL 設定
OPENAI_BASE_URL=https://custom-api-endpoint.com/v1 # 可選,用於自訂 OpenAI API 端點
# Ollama 主機
OLLAMA_HOST=your_ollama_host # 可選,如果 Ollama 不在本機執行,預設為 http://localhost:11434
# 設定檔目錄
DEEPWIKI_CONFIG_DIR=/path/to/custom/config/dir # 可選,用於自訂設定檔位置
DeepWiki 使用 JSON 設定檔來管理系統的各個層面:
-
generator.json:文字產生模型設定- 定義可用的模型提供商(Google、OpenAI、OpenRouter、Azure、Ollama)
- 指定每個提供商的預設和可用模型
- 包含模型特定參數,如 temperature 和 top_p
-
embedder.json:嵌入模型和文字處理設定- 定義用於向量儲存的嵌入模型
- 包含用於 RAG 的檢索器設定
- 指定文件分塊的文字分割器設定
-
repo.json:儲存庫處理設定- 包含排除特定檔案和目錄的檔案篩選器
- 定義儲存庫大小限制和處理規則
預設情況下,這些檔案位於 api/config/ 目錄中。您可以使用 DEEPWIKI_CONFIG_DIR 環境變數自訂它們的位置。
自訂模型選擇功能專為需要以下功能的服務提供商設計:
- 您可以在組織內為使用者提供多種 AI 模型選擇
- 您可以快速適應快速發展的 LLM 領域,無需變更程式碼
- 您可以支援不在預定義清單中的專業或微調模型
服務提供商可以透過從預定義選項中選擇或在前端介面中輸入自訂模型識別符來實作其模型提供方案。
OpenAI 客戶端的 base_url 設定主要為擁有私有 API 通道的企業使用者設計。此功能:
- 支援連線到私有或企業特定的 API 端點
- 允許組織使用自己的自主託管或自訂部署的 LLM 服務
- 支援與第三方 OpenAI API 相容服務的整合
即將推出:在未來的更新中,DeepWiki 將支援一種模式,讓使用者需要在請求中提供自己的 API 金鑰。這將允許擁有私有通道的企業客戶使用其現有的 API 安排,而不必與 DeepWiki 部署共享憑證。
如果您想使用與 OpenAI API 相容的嵌入模型(如阿里巴巴 Qwen),請按照以下步驟操作:
- 用
api/config/embedder_openai_compatible.json的內容替換api/config/embedder.json的內容。 - 在專案根目錄的
.env檔案中,設定相關的環境變數,例如:OPENAI_API_KEY=your_api_key OPENAI_BASE_URL=your_openai_compatible_endpoint - 程式會自動用環境變數的值替換 embedder.json 中的預留位置。
這讓您可以無縫切換到任何 OpenAI 相容的嵌入服務,無需變更程式碼。
DeepWiki 現在支援 Google AI 最新的嵌入模型,作為 OpenAI 嵌入的替代方案。當您已經在使用 Google Gemini 模型進行文字生成時,這能提供更好的整合。
- 最新模型:使用 Google 的
text-embedding-004模型 - 相同的 API 金鑰:使用您現有的
GOOGLE_API_KEY(無需額外設定) - 更好的整合:為搭配 Google Gemini 文字生成模型使用而優化
- 特定任務支援:支援語義相似度、檢索和分類任務
- 批次處理:高效處理多個文本
選項 1:環境變數 (推薦)
在您的 .env 檔案中設定嵌入模型類型:
# 您現有的 Google API 金鑰
GOOGLE_API_KEY=your_google_api_key
# 啟用 Google AI 嵌入
DEEPWIKI_EMBEDDER_TYPE=google選項 2:Docker 環境
docker run -p 8001:8001 -p 3000:3000 \
-e GOOGLE_API_KEY=your_google_api_key \
-e DEEPWIKI_EMBEDDER_TYPE=google \
-v ~/.adalflow:/root/.adalflow \
ghcr.io/asyncfuncai/deepwiki-open:latest選項 3:Docker Compose
在您的 .env 檔案中新增:
GOOGLE_API_KEY=your_google_api_key
DEEPWIKI_EMBEDDER_TYPE=google然後執行:
docker-compose up| 類型 | 說明 | 需要的 API 金鑰 | 備註 |
|---|---|---|---|
openai |
OpenAI 嵌入 (預設) | OPENAI_API_KEY |
使用 text-embedding-3-small 模型 |
google |
Google AI 嵌入 | GOOGLE_API_KEY |
使用 text-embedding-004 模型 |
ollama |
本機 Ollama 嵌入 | 無 | 需要本機安裝 Ollama |
- 一致性:如果您使用 Google Gemini 進行文字生成,使用 Google 嵌入能提供更好的語義一致性
- 效能:Google 最新的嵌入模型為檢索任務提供優異的效能
- 成本:與 OpenAI 相比具有競爭力的價格
- 無需額外設定:使用與您的文字生成模型相同的 API 金鑰
您可以輕鬆地在不同的嵌入提供商之間切換:
# 使用 OpenAI 嵌入 (預設)
export DEEPWIKI_EMBEDDER_TYPE=openai
# 使用 Google AI 嵌入
export DEEPWIKI_EMBEDDER_TYPE=google
# 使用本機 Ollama 嵌入
export DEEPWIKI_EMBEDDER_TYPE=ollama注意:切換嵌入模型時,您可能需要重新為您的儲存庫產生嵌入,因為不同的模型會產生不同的向量空間。
DeepWiki 使用 Python 的內建 logging 模組進行診斷輸出。您可以透過環境變數設定詳細程度和日誌檔案目標:
| 變數 | 說明 | 預設值 |
|---|---|---|
LOG_LEVEL |
日誌記錄等級(DEBUG、INFO、WARNING、ERROR、CRITICAL) | INFO |
LOG_FILE_PATH |
日誌檔案的路徑。如果設定,日誌將寫入此檔案 | api/logs/application.log |
要啟用除錯日誌並將日誌導向自訂檔案:
export LOG_LEVEL=DEBUG
export LOG_FILE_PATH=./debug.log
python -m api.main或使用 Docker Compose:
LOG_LEVEL=DEBUG LOG_FILE_PATH=./debug.log docker-compose up使用 Docker Compose 執行時,容器的 api/logs 目錄會掛載到主機上的 ./api/logs(請參閱 docker-compose.yml 中的 volumes 區段),確保日誌檔案在重新啟動後仍然存在。
您也可以將這些設定儲存在 .env 檔案中:
LOG_LEVEL=DEBUG
LOG_FILE_PATH=./debug.log然後簡單執行:
docker-compose up日誌路徑安全性考量: 在生產環境中,請確保 api/logs 目錄和任何自訂日誌檔案路徑都受到適當的檔案系統權限和存取控制保護。應用程式會強制要求 LOG_FILE_PATH 位於專案的 api/logs 目錄內,以防止路徑遍歷或未授權的寫入。
| 變數 | 說明 | 必需 | 備註 |
|---|---|---|---|
GOOGLE_API_KEY |
Google Gemini API 金鑰,用於 AI 產生和嵌入 | 否 | 使用 Google Gemini 模型和 Google AI 嵌入時必需 |
OPENAI_API_KEY |
OpenAI API 金鑰,用於嵌入和模型 | 條件式 | 使用 OpenAI 嵌入或模型時必需 |
OPENROUTER_API_KEY |
OpenRouter API 金鑰,用於替代模型 | 否 | 只有在您想使用 OpenRouter 模型時才需要 |
AZURE_OPENAI_API_KEY |
Azure OpenAI API 金鑰 | 否 | 只有在您想使用 Azure OpenAI 模型時才需要 |
AZURE_OPENAI_ENDPOINT |
Azure OpenAI 端點 | 否 | 只有在您想使用 Azure OpenAI 模型時才需要 |
AZURE_OPENAI_VERSION |
Azure OpenAI 版本 | 否 | 只有在您想使用 Azure OpenAI 模型時才需要 |
OLLAMA_HOST |
Ollama 主機(預設:http://localhost:11434) | 否 | 只有在您想使用外部 Ollama 伺服器時才需要 |
DEEPWIKI_EMBEDDER_TYPE |
嵌入模型類型:openai、google 或 ollama (預設:openai) |
否 | 控制使用哪個嵌入提供商 |
PORT |
API 伺服器的連接埠(預設:8001) | 否 | 如果您在同一台機器上託管 API 和前端,請確保相應地變更 SERVER_BASE_URL 的連接埠 |
SERVER_BASE_URL |
API 伺服器的基礎 URL(預設:http://localhost:8001) | 否 | |
DEEPWIKI_AUTH_MODE |
設定為 true 或 1 以啟用授權模式 |
否 | 預設為 false。如果啟用,則需要 DEEPWIKI_AUTH_CODE |
DEEPWIKI_AUTH_CODE |
當 DEEPWIKI_AUTH_MODE 啟用時,Wiki 產生所需的秘密代碼 |
否 | 只有在 DEEPWIKI_AUTH_MODE 為 true 或 1 時才使用 |
API 金鑰要求:
- 如果使用
DEEPWIKI_EMBEDDER_TYPE=openai(預設):需要OPENAI_API_KEY - 如果使用
DEEPWIKI_EMBEDDER_TYPE=google:需要GOOGLE_API_KEY - 如果使用
DEEPWIKI_EMBEDDER_TYPE=ollama:無需 API 金鑰 (本機處理)
其他 API 金鑰只有在設定並使用對應提供商的模型時才需要。
DeepWiki 可以設定為在授權模式下執行,在此模式下,Wiki 產生需要有效的授權代碼。如果您想控制誰可以使用產生功能,這會很有用。 限制前端啟動並保護快取刪除,但如果直接存取 API 端點,無法完全防止後端產生。
要啟用授權模式,請設定以下環境變數:
DEEPWIKI_AUTH_MODE:將此設定為true或1。啟用時,前端將顯示授權代碼的輸入欄位。DEEPWIKI_AUTH_CODE:將此設定為所需的秘密代碼。限制前端啟動並保護快取刪除,但如果直接存取 API 端點,無法完全防止後端產生。
如果未設定 DEEPWIKI_AUTH_MODE 或設定為 false(或除 true/1 以外的任何其他值),授權功能將被停用,不需要任何代碼。
您可以使用 Docker 來執行 DeepWiki:
# 從 GitHub Container Registry 拉取映像
docker pull ghcr.io/asyncfuncai/deepwiki-open:latest
# 使用環境變數執行容器
docker run -p 8001:8001 -p 3000:3000 \
-e GOOGLE_API_KEY=your_google_api_key \
-e OPENAI_API_KEY=your_openai_api_key \
-e OPENROUTER_API_KEY=your_openrouter_api_key \
-e OLLAMA_HOST=your_ollama_host \
-e AZURE_OPENAI_API_KEY=your_azure_openai_api_key \
-e AZURE_OPENAI_ENDPOINT=your_azure_openai_endpoint \
-e AZURE_OPENAI_VERSION=your_azure_openai_version \
-v ~/.adalflow:/root/.adalflow \
ghcr.io/asyncfuncai/deepwiki-open:latest此命令也會將主機上的 ~/.adalflow 掛載到容器中的 /root/.adalflow。此路徑用於儲存:
- 複製的儲存庫(
~/.adalflow/repos/) - 它們的嵌入和索引(
~/.adalflow/databases/) - 快取的已產生 Wiki 內容(
~/.adalflow/wikicache/)
這確保即使容器停止或移除,您的資料也會持續存在。
或使用提供的 docker-compose.yml 檔案:
# 首先使用您的 API 金鑰編輯 .env 檔案
docker-compose up(docker-compose.yml 檔案預先設定為掛載 ~/.adalflow 以保持資料持續性,類似於上面的 docker run 命令。)
您也可以將 .env 檔案掛載到容器:
# 使用您的 API 金鑰建立 .env 檔案
echo "GOOGLE_API_KEY=your_google_api_key" > .env
echo "OPENAI_API_KEY=your_openai_api_key" >> .env
echo "OPENROUTER_API_KEY=your_openrouter_api_key" >> .env
echo "AZURE_OPENAI_API_KEY=your_azure_openai_api_key" >> .env
echo "AZURE_OPENAI_ENDPOINT=your_azure_openai_endpoint" >> .env
echo "AZURE_OPENAI_VERSION=your_azure_openai_version" >>.env
echo "OLLAMA_HOST=your_ollama_host" >> .env
# 使用掛載的 .env 檔案執行容器
docker run -p 8001:8001 -p 3000:3000 \
-v $(pwd)/.env:/app/.env \
-v ~/.adalflow:/root/.adalflow \
ghcr.io/asyncfuncai/deepwiki-open:latest此命令也會將主機上的 ~/.adalflow 掛載到容器中的 /root/.adalflow。此路徑用於儲存:
- 複製的儲存庫(
~/.adalflow/repos/) - 它們的嵌入和索引(
~/.adalflow/databases/) - 快取的已產生 Wiki 內容(
~/.adalflow/wikicache/)
這確保即使容器停止或移除,您的資料也會持續存在。
如果您想在本機建置 Docker 映像:
# 複製儲存庫
git clone https://github.com/AsyncFuncAI/deepwiki-open.git
cd deepwiki-open
# 建置 Docker 映像
docker build -t deepwiki-open .
# 執行容器
docker run -p 8001:8001 -p 3000:3000 \
-e GOOGLE_API_KEY=your_google_api_key \
-e OPENAI_API_KEY=your_openai_api_key \
-e OPENROUTER_API_KEY=your_openrouter_api_key \
-e AZURE_OPENAI_API_KEY=your_azure_openai_api_key \
-e AZURE_OPENAI_ENDPOINT=your_azure_openai_endpoint \
-e AZURE_OPENAI_VERSION=your_azure_openai_version \
-e OLLAMA_HOST=your_ollama_host \
deepwiki-open如果您在一個使用自簽憑證的環境中,您可以將它們包含在 Docker 建置中:
- 為您的憑證建立一個目錄 (預設是您專案根目錄中的
certs) - 將您的
.crt或.pem憑證檔案複製到此目錄 - 建置 Docker 映像:
# 使用預設憑證目錄 (certs) 建置
docker build .
# 或使用自訂憑證目錄建置
docker build --build-arg CUSTOM_CERT_DIR=my-custom-certs .API 伺服器提供:
- 儲存庫複製和索引
- RAG(檢索增強產生)
- 串流聊天完成
更多詳細資訊,請參閱 API README。
DeepWiki 現在支援 OpenRouter 作為模型提供商,讓您可以透過單一 API 存取數百個 AI 模型:
- 多種模型選項:存取來自 OpenAI、Anthropic、Google、Meta、Mistral 等的模型
- 簡單設定:只需新增您的 OpenRouter API 金鑰並選擇您想使用的模型
- 成本效益:選擇符合您預算和效能需求的模型
- 輕鬆切換:在不同模型之間切換,無需變更程式碼
- 取得 API 金鑰:在 OpenRouter 註冊並取得您的 API 金鑰
- 新增到環境:在您的
.env檔案中新增OPENROUTER_API_KEY=your_key - 在 UI 中啟用:在首頁勾選「使用 OpenRouter API」選項
- 選擇模型:從熱門模型中選擇,如 GPT-4o、Claude 3.5 Sonnet、Gemini 2.0 等
OpenRouter 特別適用於以下情況:
- 想嘗試不同模型而不用註冊多個服務
- 存取在您所在地區可能受限的模型
- 比較不同模型提供商的效能
- 根據您的需求最佳化成本與效能的平衡
提問功能允許您使用檢索增強產生(RAG)與您的儲存庫聊天:
- 上下文感知回應:基於儲存庫中實際程式碼取得準確答案
- RAG 驅動:系統檢索相關程式碼片段,提供有根據的回應
- 即時串流傳輸:即時檢視產生的回應,取得更互動式的體驗
- 對話歷史:系統在問題之間保持上下文,實現更連貫的互動
深度研究透過多輪研究過程將儲存庫分析提升到新水平:
- 深入調查:透過多次研究迭代徹底探索複雜主題
- 結構化過程:遵循清晰的研究計畫,包含更新和全面結論
- 自動繼續:AI 自動繼續研究直到達成結論(最多 5 次迭代)
- 研究階段:
- 研究計畫:概述方法和初步發現
- 研究更新:在前一輪迭代基礎上增加新見解
- 最終結論:基於所有迭代提供全面答案
要使用深度研究,只需在提交問題前在提問介面中切換「深度研究」開關。
觀看 DeepWiki 實際操作!
- 「缺少環境變數」:確保您的
.env檔案位於專案根目錄並包含所需的 API 金鑰 - 「API 金鑰無效」:檢查您是否正確複製了完整金鑰,沒有多餘空格
- 「OpenRouter API 錯誤」:驗證您的 OpenRouter API 金鑰有效且有足夠的額度
- 「Azure OpenAI API 錯誤」:驗證您的 Azure OpenAI 憑證 (API 金鑰、端點和版本) 是否正確,且服務已正確部署
- 「無法連線到 API 伺服器」:確保 API 伺服器在連接埠 8001 上執行
- 「CORS 錯誤」:API 設定為允許所有來源,但如果您遇到問題,請嘗試在同一台機器上執行前端和後端
- 「產生 Wiki 時出錯」:對於非常大的儲存庫,請先嘗試較小的儲存庫
- 「無效的儲存庫格式」:確保您使用有效的 GitHub、GitLab 或 Bitbucket URL 格式
- 「無法擷取儲存庫結構」:對於私人儲存庫,確保您輸入了具有適當權限的有效個人存取權杖
- 「圖表轉譯錯誤」:應用程式將自動嘗試修復損壞的圖表
- 重新啟動兩個伺服器:有時簡單的重新啟動可以解決大多數問題
- 檢查主控台日誌:開啟瀏覽器開發者工具查看任何 JavaScript 錯誤
- 檢查 API 日誌:查看執行 API 的終端中的 Python 錯誤
我們歡迎各種形式的貢獻!無論是:
- 回報錯誤或功能請求
- 提交拉取請求以改善程式碼
- 分享您的回饋和想法
此專案根據 MIT 授權條款授權 - 詳情請參閱 LICENSE 檔案。




