Skip to content

Murasaki 系列模型官方推理前端。原生支持CoT(思维链)与长上下文的次时代ACGN 翻译引擎,一键高质量翻译轻小说、字幕与游戏和漫画文本。

License

Notifications You must be signed in to change notification settings

soundstarrain/Murasaki-Translator

Repository files navigation

Murasaki Logo

Murasaki Translator

原生 CoT 与长上下文能力的 ACGN 文本翻译器
Murasaki 系列模型官方推理前端

Release License Platform Model


Murasaki UI Preview

下载最新版 | 模型仓库 (Hugging Face) | 反馈问题


Murasaki TranslatorMurasaki 系列模型 的官方配套推理引擎。除了本地模型,还支持所有 OpenAI 兼容格式的在线 API 进行翻译。

Murasaki 系列模型 是针对 ACGN 领域特化微调的翻译模型,其训练数据中 90% 以上为高质量的段落级长文本。模型原生支持 Chain-of-Thought (CoT) 思维链机制,具备结合长上下文进行精准 ACGN 文本翻译的能力。

✨ Now Live: 无需下载模型,点击 Online Demo 在线体验模型。

2.0.0(2026-02-22)更新摘要

  • 全面支持使用 OpenAI 兼容格式的在线 API 进行翻译。
  • 新增 API 管理中心:统一管理 API / Pipeline / Prompt / Parser / Policy / Chunk,并支持连通性测试与 Sandbox 调试。
  • 支持本地模型与在线 API 两种翻译模式按需切换。

本项目基于 Murasaki 系列模型的原生 CoT 能力和长上下文特性,专门设计并优化了翻译引擎。我们对模型底层格式及特性进行了深度的适配与工程优化,底层采用 llama.cpp 推理框架,前端使用 Electron + React 构建,旨在为轻小说翻译提供一个轻量级、高性能且功能完备的解决方案。

功能特性

1. 交互体验与硬件监控

提供完整的可视化翻译工作台。支持文件与文件夹的递归拖拽导入,系统会自动建立批量翻译队列。

  • 实时预览:支持原文与译文的逐行对照流式输出,即时查看翻译进度。
  • 硬件仪表盘:升级为多维性能看板,实时监控显存 (VRAM)、GPU 负载及生成速率 (Tokens/s),支持历史回溯,帮助用户掌握硬件状态。

2. 全格式无损直出与辅助对齐

打破纯文本限制,支持 EPUBASSSRT 格式的原样输入输出,完美保留原始排版与结构。

  • 无损封装:EPUB 翻译保留 CSS、插图与竖排格式;字幕文件自动保持时间轴精准同步,无需后期调轴。
  • 辅助对齐模式:专为漫画与游戏脚本设计。通过逻辑 ID 锚点技术,辅助模型将译文精准回填至原始物理行,解决错位问题。

3. 模型原生术语表支持

Murasaki 模型针对术语表进行了特化训练,支持 Prompt 级术语注入,模型会在 CoT 中识别术语表并且进行分析替换。

  • 原生支持:模型能理解术语表指令,根据上下文灵活嵌入术语。
  • 自动挂载:支持 JSONTXT 格式。系统会自动扫描并挂载与翻译文件同名的术语表。
  • 术语转换器:内置可视化的术语转换工具,支持导入大部分术语表格式
  • 覆盖率动态重试:实现了覆盖率检测机制,若译文未正确包含指定术语,系统会自动调整参数并进行重试。

4. 可视化校对与质量控制

专为长文本设计的后期校对工具,解决长篇翻译后的精修需求。

  • 联动校对:提供原文与译文的对照视图,支持快速编辑与保存,无需导出第三方编辑器。
  • 可直接在校对页面调用翻译引擎,对选中的 Block 进行重新翻译
  • 内置质量检测功能,自动检测潜在的翻译质量问题,并快速定位到具体行提示用户进行检查。
  • 行数校验 (Line Check):自动监控译文与原文的行数对应关系,发现行数漂移或漏翻时自动触发重试。
  • 自动化容错:自动监控行数漂移与逻辑死循环。当检测到模型复读或漏翻时,自动动态调整重复惩罚 (Rep Penalty) 和温度 (Temperature) 触发重试。

5. 通用预处理与后处理

内置强大的文本清洗引擎,确保输入模型的数据干净规范。

  • 规则沙盒:提供实时测试环境,可视化预览规则对文本的清洗效果。
  • 格式化模板:内置多达10+种预设模板,覆盖大部分常见需求。
  • 正则扩展:全面支持用户自定义正则表达式 (Regex),可针对特定文本源编写清洗规则。

6. 在线 API 翻译(OpenAI 兼容,2.0.0)

  • 在线 API 直连:支持接入 OpenAI 兼容 API,直接使用在线模型完成翻译任务。
  • 一体化管理:内置 API 管理中心,统一维护 API / Pipeline / Prompt / Parser / Policy / Chunk 配置。
  • 长任务友好:支持并发执行、可中断与断点恢复,适合长文本批量翻译。

使用说明

环境要求

平台 GPU 下载格式 一键运行
Windows NVIDIA / AMD / Intel .zip 压缩包(内含 .exe
macOS Apple Silicon / Intel .dmg
Linux Desktop 所有 GPU (Vulkan) .AppImage
Linux Server 所有 GPU CLI .tar.gz ⚠️ 需装依赖

Note

显存需求

模型 最低显存 推荐显存
Murasaki-8B 6 GB 8 GB+
Murasaki-14B 10 GB 12 GB+

Apple Silicon 使用统一内存,16GB+ 即可流畅运行。

快速开始

1. 下载软件

前往 Releases 下载对应平台的安装包:

平台 文件 说明
Windows *-win-cuda-x64.zip*-win-vulkan-x64.zip 解压后运行 Murasaki Translator.exe
macOS *-arm64.dmg*.dmg 拖入 Applications 后运行
Linux Desktop *.AppImage chmod +x 后双击运行

更多安装选项请参阅 平台兼容性文档

(如需通过源码编译,请参考 开发指南。)

2. 下载模型(使用本地模型时)

在GUI的模型管理页面在线下载即可,或前往 Hugging Face 下载模型文件。 如果你使用在线 API 翻译,可跳过本步骤,直接在侧栏 API 管理 配置兼容 OpenAI 格式的 API。

3. 开始翻译

在 Dashboard 顶部先选择翻译模式:

  • 本地模型:加载本地模型后开始翻译。
  • 在线 API:选择已配置的 API Pipeline 后开始翻译。

若使用本地模型模式,将下载的模型文件放入 models 目录中。(通过模型管理内置下载器下载的可以跳过这一步直接开始翻译)

  • Windows: 解压目录\app\resources\middleware\models
  • macOS: 应用程序/Murasaki Translator.app/Contents/Resources/middleware/models

Linux Server 远程部署(API)

适用于远程 GPU 服务器或云端平台(如 autodl)。下面是从“下载模型 → 部署服务 → GUI 连接”的完整流程。

1. 下载模型(示例)

MODEL_DIR="$HOME/murasaki-models"
mkdir -p "$MODEL_DIR"

MODEL_PAGE_URL="https://huggingface.co/Murasaki-Project/Murasaki-14B-v0.2-GGUF/blob/main/Murasaki-14B-v0.2-IQ4_XS.gguf"
MODEL_URL="${MODEL_PAGE_URL}?download=1"
MODEL_PATH="$MODEL_DIR/Murasaki-14B-v0.2-IQ4_XS.gguf"

curl -L "$MODEL_URL" -o "$MODEL_PATH"

2. 部署并启动服务

API_KEY='replace-with-strong-key'
curl -fsSL https://github.com/soundstarrain/Murasaki-Translator/releases/latest/download/murasaki-server-linux-x64.tar.gz | tar -xz
cd murasaki-server
nohup ./start.sh --host 127.0.0.1 --port 8000 --model "$MODEL_PATH" --api-key "$API_KEY" > server.log 2>&1 &

3. 本地建立 SSH 隧道

ssh -N -L 8000:127.0.0.1:8000 user@your-server

4. GUI 连接

在服务管理页面填写:

  • Server URL: http://127.0.0.1:8000
  • API Key: 你部署时设置的 API_KEY

性能参考

GeForce RTX 4080 Laptop 环境下,运行 4-bit 量化模型,4个并发任务:

  • 平均速度: ~200 字/s
  • 内容构成: 思维链 (CoT) 内容与翻译文本比例约为 40%:60%

常见问题

基础使用:

  1. 实验性功能:部分标记为“实验性”的功能开启后可能与其他功能冲突,导致翻译异常。若遇到问题,请优先关闭此类功能。
  2. 默认配置:大部分预设配置即为通用最佳值,通常无需调整。
  3. 故障排查:如果翻译遇到问题,请首先尝试重置所有配置。若问题依旧,请提交 Issue 并附带设置中导出的完整调试日志。

高级调优 (CoT 与 上下文):

  1. CoT 比例与效率:CoT 内容与翻译文本的比例与上下文长度相关。通常批次大小 (Batch Size) 越大,CoT 在总输出中的占比越小,纯文本翻译的效率则越高。
  2. 参数定义
    • 上下文 (Context):指模型处理的总预算空间,包含术语表、Prompt、CoT 思维链和实际翻译文本。
    • 批次大小 (Batch Size):指模型一次性处理的文本切片长度(设置中会自动换算)。
  3. 参数推荐
    • 建议批次大小设置在 512 - 3072 之间。
    • 最佳甜点区间1024 - 1536(对应的上下文约为 3200 - 4600 token)。
    • 注:此区间是兼顾模型逻辑推理能力(CoT)、翻译文本产出效率以及上下文信息利用率的最佳平衡点。
    • 精度与并行
      • 质量优先:推荐使用 KV Cache F16 精度与 单线程 模式。任何降低缓存精度(如 Q8_0/Q4_0)或开启多任务并行的设置,均会导致推理质量产生不同程度的损耗。
      • 性能平衡:总吞吐量由 GPU FLOPS、显存带宽及并行数量共同决定。请注意,并行数量并非越高越好,过高的并发会导致显存带宽瓶颈与资源争抢,反而降低整体处理速度。

后续开发计划

我们会持续改进 Murasaki Translator 的体验,未来的开发重点有:

  • 多格式文档支持:计划扩展对多种文件格式的支持,特别是针对 RPGGalgame 脚本等游戏文本格式的直接解析与翻译。
  • 跨平台支持:已支持 Windows、macOS (Apple Silicon/Intel)、Linux (AppImage)。
  • Linux Server 后端:已提供 Linux CLI 服务端,支持 OpenAI 兼容 API 接口,适用于远程推理部署。
  • 在线 API 翻译(OpenAI 兼容):已支持兼容 OpenAI 格式的在线 API 翻译与 API 管理中心配置。
  • 文档完善:补充更详尽的使用教程功能文档
  • 模型迭代:持续更新模型训练,发布质量更高、针对性更强的新版本模型。

协议与致谢


Copyright © 2026 Murasaki Translator.

About

Murasaki 系列模型官方推理前端。原生支持CoT(思维链)与长上下文的次时代ACGN 翻译引擎,一键高质量翻译轻小说、字幕与游戏和漫画文本。

Topics

Resources

License

Stars

Watchers

Forks

Packages

 
 
 

Contributors