Murasaki Translator 是 Murasaki 系列模型 的官方配套推理引擎。除了本地模型,还支持所有 OpenAI 兼容格式的在线 API 进行翻译。
Murasaki 系列模型 是针对 ACGN 领域特化微调的翻译模型,其训练数据中 90% 以上为高质量的段落级长文本。模型原生支持 Chain-of-Thought (CoT) 思维链机制,具备结合长上下文进行精准 ACGN 文本翻译的能力。
✨ Now Live: 无需下载模型,点击 Online Demo 在线体验模型。
2.0.0(2026-02-22)更新摘要
- 全面支持使用 OpenAI 兼容格式的在线 API 进行翻译。
- 新增 API 管理中心:统一管理 API / Pipeline / Prompt / Parser / Policy / Chunk,并支持连通性测试与 Sandbox 调试。
- 支持本地模型与在线 API 两种翻译模式按需切换。
本项目基于 Murasaki 系列模型的原生 CoT 能力和长上下文特性,专门设计并优化了翻译引擎。我们对模型底层格式及特性进行了深度的适配与工程优化,底层采用 llama.cpp 推理框架,前端使用 Electron + React 构建,旨在为轻小说翻译提供一个轻量级、高性能且功能完备的解决方案。
提供完整的可视化翻译工作台。支持文件与文件夹的递归拖拽导入,系统会自动建立批量翻译队列。
- 实时预览:支持原文与译文的逐行对照流式输出,即时查看翻译进度。
- 硬件仪表盘:升级为多维性能看板,实时监控显存 (VRAM)、GPU 负载及生成速率 (Tokens/s),支持历史回溯,帮助用户掌握硬件状态。
打破纯文本限制,支持 EPUB、ASS 与 SRT 格式的原样输入输出,完美保留原始排版与结构。
- 无损封装:EPUB 翻译保留 CSS、插图与竖排格式;字幕文件自动保持时间轴精准同步,无需后期调轴。
- 辅助对齐模式:专为漫画与游戏脚本设计。通过逻辑 ID 锚点技术,辅助模型将译文精准回填至原始物理行,解决错位问题。
Murasaki 模型针对术语表进行了特化训练,支持 Prompt 级术语注入,模型会在 CoT 中识别术语表并且进行分析替换。
- 原生支持:模型能理解术语表指令,根据上下文灵活嵌入术语。
- 自动挂载:支持
JSON与TXT格式。系统会自动扫描并挂载与翻译文件同名的术语表。 - 术语转换器:内置可视化的术语转换工具,支持导入大部分术语表格式
- 覆盖率动态重试:实现了覆盖率检测机制,若译文未正确包含指定术语,系统会自动调整参数并进行重试。
专为长文本设计的后期校对工具,解决长篇翻译后的精修需求。
- 联动校对:提供原文与译文的对照视图,支持快速编辑与保存,无需导出第三方编辑器。
- 可直接在校对页面调用翻译引擎,对选中的 Block 进行重新翻译。
- 内置质量检测功能,自动检测潜在的翻译质量问题,并快速定位到具体行提示用户进行检查。
- 行数校验 (Line Check):自动监控译文与原文的行数对应关系,发现行数漂移或漏翻时自动触发重试。
- 自动化容错:自动监控行数漂移与逻辑死循环。当检测到模型复读或漏翻时,自动动态调整重复惩罚 (Rep Penalty) 和温度 (Temperature) 触发重试。
内置强大的文本清洗引擎,确保输入模型的数据干净规范。
- 规则沙盒:提供实时测试环境,可视化预览规则对文本的清洗效果。
- 格式化模板:内置多达10+种预设模板,覆盖大部分常见需求。
- 正则扩展:全面支持用户自定义正则表达式 (Regex),可针对特定文本源编写清洗规则。
- 在线 API 直连:支持接入 OpenAI 兼容 API,直接使用在线模型完成翻译任务。
- 一体化管理:内置 API 管理中心,统一维护 API / Pipeline / Prompt / Parser / Policy / Chunk 配置。
- 长任务友好:支持并发执行、可中断与断点恢复,适合长文本批量翻译。
| 平台 | GPU | 下载格式 | 一键运行 |
|---|---|---|---|
| Windows | NVIDIA / AMD / Intel | .zip 压缩包(内含 .exe) |
✅ |
| macOS | Apple Silicon / Intel | .dmg |
✅ |
| Linux Desktop | 所有 GPU (Vulkan) | .AppImage |
✅ |
| Linux Server | 所有 GPU | CLI .tar.gz |
Note
显存需求
| 模型 | 最低显存 | 推荐显存 |
|---|---|---|
| Murasaki-8B | 6 GB | 8 GB+ |
| Murasaki-14B | 10 GB | 12 GB+ |
Apple Silicon 使用统一内存,16GB+ 即可流畅运行。
前往 Releases 下载对应平台的安装包:
| 平台 | 文件 | 说明 |
|---|---|---|
| Windows | *-win-cuda-x64.zip 或 *-win-vulkan-x64.zip |
解压后运行 Murasaki Translator.exe |
| macOS | *-arm64.dmg 或 *.dmg |
拖入 Applications 后运行 |
| Linux Desktop | *.AppImage |
chmod +x 后双击运行 |
更多安装选项请参阅 平台兼容性文档。
(如需通过源码编译,请参考 开发指南。)
在GUI的模型管理页面在线下载即可,或前往 Hugging Face 下载模型文件。
如果你使用在线 API 翻译,可跳过本步骤,直接在侧栏 API 管理 配置兼容 OpenAI 格式的 API。
在 Dashboard 顶部先选择翻译模式:
- 本地模型:加载本地模型后开始翻译。
- 在线 API:选择已配置的 API Pipeline 后开始翻译。
若使用本地模型模式,将下载的模型文件放入 models 目录中。(通过模型管理内置下载器下载的可以跳过这一步直接开始翻译)
- Windows:
解压目录\app\resources\middleware\models - macOS:
应用程序/Murasaki Translator.app/Contents/Resources/middleware/models
适用于远程 GPU 服务器或云端平台(如 autodl)。下面是从“下载模型 → 部署服务 → GUI 连接”的完整流程。
MODEL_DIR="$HOME/murasaki-models"
mkdir -p "$MODEL_DIR"
MODEL_PAGE_URL="https://huggingface.co/Murasaki-Project/Murasaki-14B-v0.2-GGUF/blob/main/Murasaki-14B-v0.2-IQ4_XS.gguf"
MODEL_URL="${MODEL_PAGE_URL}?download=1"
MODEL_PATH="$MODEL_DIR/Murasaki-14B-v0.2-IQ4_XS.gguf"
curl -L "$MODEL_URL" -o "$MODEL_PATH"API_KEY='replace-with-strong-key'
curl -fsSL https://github.com/soundstarrain/Murasaki-Translator/releases/latest/download/murasaki-server-linux-x64.tar.gz | tar -xz
cd murasaki-server
nohup ./start.sh --host 127.0.0.1 --port 8000 --model "$MODEL_PATH" --api-key "$API_KEY" > server.log 2>&1 &ssh -N -L 8000:127.0.0.1:8000 user@your-server在服务管理页面填写:
Server URL:http://127.0.0.1:8000API Key: 你部署时设置的API_KEY
在 GeForce RTX 4080 Laptop 环境下,运行 4-bit 量化模型,4个并发任务:
- 平均速度: ~200 字/s
- 内容构成: 思维链 (CoT) 内容与翻译文本比例约为 40%:60%
基础使用:
- 实验性功能:部分标记为“实验性”的功能开启后可能与其他功能冲突,导致翻译异常。若遇到问题,请优先关闭此类功能。
- 默认配置:大部分预设配置即为通用最佳值,通常无需调整。
- 故障排查:如果翻译遇到问题,请首先尝试重置所有配置。若问题依旧,请提交 Issue 并附带设置中导出的完整调试日志。
高级调优 (CoT 与 上下文):
- CoT 比例与效率:CoT 内容与翻译文本的比例与上下文长度相关。通常批次大小 (Batch Size) 越大,CoT 在总输出中的占比越小,纯文本翻译的效率则越高。
- 参数定义:
- 上下文 (Context):指模型处理的总预算空间,包含术语表、Prompt、CoT 思维链和实际翻译文本。
- 批次大小 (Batch Size):指模型一次性处理的文本切片长度(设置中会自动换算)。
- 参数推荐:
- 建议批次大小设置在
512-3072之间。 - 最佳甜点区间为
1024-1536(对应的上下文约为 3200 - 4600 token)。 - 注:此区间是兼顾模型逻辑推理能力(CoT)、翻译文本产出效率以及上下文信息利用率的最佳平衡点。
- 精度与并行:
- 质量优先:推荐使用 KV Cache F16 精度与 单线程 模式。任何降低缓存精度(如 Q8_0/Q4_0)或开启多任务并行的设置,均会导致推理质量产生不同程度的损耗。
- 性能平衡:总吞吐量由 GPU FLOPS、显存带宽及并行数量共同决定。请注意,并行数量并非越高越好,过高的并发会导致显存带宽瓶颈与资源争抢,反而降低整体处理速度。
- 建议批次大小设置在
我们会持续改进 Murasaki Translator 的体验,未来的开发重点有:
- 多格式文档支持:计划扩展对多种文件格式的支持,特别是针对 RPG 及 Galgame 脚本等游戏文本格式的直接解析与翻译。
- 跨平台支持:已支持 Windows、macOS (Apple Silicon/Intel)、Linux (AppImage)。
- Linux Server 后端:已提供 Linux CLI 服务端,支持 OpenAI 兼容 API 接口,适用于远程推理部署。
- 在线 API 翻译(OpenAI 兼容):已支持兼容 OpenAI 格式的在线 API 翻译与 API 管理中心配置。
- 文档完善:补充更详尽的使用教程与功能文档。
- 模型迭代:持续更新模型训练,发布质量更高、针对性更强的新版本模型。
- 软件代码: Apache-2.0 License
- 模型权重: CC BY-NC-SA 4.0
- 致谢: 特别感谢 SakuraLLM 提供的 Base 模型。
- 致谢: 特别感谢 LinguaGacha 本项目的部分后处理预设规则(注音清理器、数字修复器等)参考了该项目
Copyright © 2026 Murasaki Translator.
