将千问强大的多模态模型,将官方的 DashScope API 接口中转为 OpenAI 协议的接口,将强大的多模态模型能力开放给更大的社区生态
目前针对 Open-WebUI 的功能支持处于高优先等级,即针对图像生成和语音合成与识别的模型支持优先开发,其余多模态模型的支持静待后续开发计划
目前暂无实时类接口的支持(OpenAI realtime 系列接口的转换)
- 图像生成
- 文本生成图像(text-to-image)
- 图像编辑
- 图像编辑-千问
- 视频生成
- 语音合成
- 语音合成-千问(qwen-tts)
- 语音识别
- 录音文件识别-千问(qwen-speech-recognition)
- 语音翻译
| 路由 | 方法 | 说明 |
|---|---|---|
/v1/audio/transcriptions |
POST | 音频转文字(OpenAI Whisper API 兼容) |
/v1/audio/speech |
POST | 语音合成(OpenAI TTS API 兼容) |
/v1/images/generations |
POST | 文本生成图像(OpenAI Images API 兼容) |
/v1/models |
GET | 列出可用模型 |
/health |
GET | 健康检查 |
qwen-tts*qwen3-tts*qwen3-asr*qwen-image*wan*
| 变量 | 必须 | 说明 |
|---|---|---|
DASHSCOPE_API_KEY |
否 | DashScope API Key(也可在请求 Header 中传入) |
DASHSCOPE_BASE_URL |
否 | DashScope API 地址,默认 https://dashscope.aliyuncs.com/api/v1 |
DEFAULT_ASR_MODEL |
否 | 默认模型,默认 qwen3-asr-flash |
DEFAULT_TTS_MODEL |
否 | 默认模型,默认 qwen3-tts-flash |
DEFAULT_IMAGE_MODEL |
否 | 默认模型,默认 qwen-image-plus |
PORT |
否 | 监听端口,默认 8000 |
pip install -r requirements.txt
# 可选, api key 可从请求中进行传入
# export DASHSCOPE_API_KEY=sk-xxx
python main.pydocker build -t dashscope-router .
# 直接启动
docker run -d -p 8000:8000 dashscope-router
# 可选, api key 可从请求中进行传入
docker run -d -p 8000:8000 -e DASHSCOPE_API_KEY=sk-xxx dashscope-routercurl -X POST http://localhost:8000/v1/audio/transcriptions \
-H "Authorization: Bearer sk-xxx" \
-F file=@audio.mp3 \
-F model=qwen3-asr-flash \
-F response_format=jsonfrom openai import OpenAI
client = OpenAI(
api_key="sk-xxx",
base_url="http://localhost:8000/v1",
)
with open("audio.mp3", "rb") as f:
result = client.audio.transcriptions.create(
model="qwen3-asr-flash",
file=f,
)
print(result.text)