# MTranServer **Repository Path**: mirrors/MTranServer ## Basic Information - **Project Name**: MTranServer - **Description**: MTranServer 是低占用、速度快、可私有部署的的离线翻译服务器,仅需 CPU + 1G 内存即可运行(提供了 Docker 快速部署方式),无需 GPU,支持全世界主要语言 - **Primary Language**: Python - **License**: Apache-2.0 - **Default Branch**: main - **Homepage**: https://www.oschina.net/p/mtranserver - **GVP Project**: No ## Statistics - **Stars**: 6 - **Forks**: 1 - **Created**: 2025-03-05 - **Last Updated**: 2026-02-07 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # MTranServer [中文](README.md) | [English](docs/README_en.md) | [日本語](docs/README_ja.md) | [Français](docs/README_fr.md) | [Deutsch](docs/README_de.md) 一个超低资源消耗速度超快的离线翻译模型服务器,无需显卡。单个请求平均响应时间 50 毫秒。支持全世界主要语言的翻译。 注意本模型服务器专注于`离线翻译`、`响应速度`、`跨平台部署`、`本地运行` 达到 `无限免费翻译` 的设计目标,受限于模型大小和优化程度,所以翻译质量肯定是不如大模型翻译的效果。需要高质量的翻译建议使用在线大模型 API。 > v4 优化了内存占用,速度进一步提升,增强了稳定性,如果你在使用旧版建议立即升级! ## 在线试用 Demo | 网站 | TOKEN | 其他接口 | 提供者 | | ---------------------------------------------------------------------------- | ------------------------- | ------------------------------------------------------------------------------ | ------------------------------------ | | [ipacel.cc](https://MTranServer.ipacel.cc/ui/?token=__IpacEL_MT_API_TOKEN__) | `__IpacEL_MT_API_TOKEN__` | 沉浸式翻译: `https://MTranServer.ipacel.cc/imme?token=__IpacEL_MT_API_TOKEN__` | [@ApliNi](https://github.com/ApliNi) | 感谢社区贡献者为用户提供试用服务! ## 使用说明 现在支持桌面端一键启动!支持 Windows、Mac、Linux。 ### 桌面端 #### 手动下载 前往 [Releases](https://github.com/xxnuo/MTranServer/releases) 下载对应平台最新桌面端,直接安装启动,即可使用。 桌面端启动后会创建一个托盘菜单,通过菜单可以方便的管理服务。 程序自带的一个简单 UI 的地址和在线调试文档。 具体使用说明可以直接跳转到 [生态项目](#生态项目) 预览(最新版有更新): ![UI](./images/ui.png) ![文档](./images/swagger.png) ### 服务端 推荐使用桌面端或者 Docker 部署,性能更佳使用方便。服务端手动部署供专业用户使用。 #### 快速开始 程序员朋友可以通过命令行直接启动服务器端: ```bash npx mtranserver@latest ``` > `npx` 可以替换为你喜欢的任意一个包管理器,比如 `bunx`、`pnpx` 等。 > **重要提示:** > > 首次翻译某个语言对时,服务器会自动下载对应的翻译模型(除非启用了离线模式),这个过程可能需要等待一段时间(取决于网络速度和模型大小)。 > 模型下载完成后,翻译请求将享受毫秒级的响应速度。建议在正式使用前先测试一次翻译,让服务器预先下载和加载模型。程序经常更新,如果遇到问题,可以尝试更新到最新版本。 #### 快速安装 ```bash npm i -g mtranserver@latest ``` > `npm` 可以替换为你喜欢的任意一个包管理器,比如 `bun`、`pnpm` 等。 然后启动 `mtranserver` 即可。 #### Docker Compose 部署 找一个空目录,编写 `compose.yml` 文件,内容如下: ```yml services: mtranserver: image: xxnuo/mtranserver:latest container_name: mtranserver restart: unless-stopped ports: - "8989:8989" environment: - MT_HOST=0.0.0.0 - MT_PORT=8989 - MT_OFFLINE=false # - MT_API_TOKEN=your_secret_token_here volumes: - ./models:/app/models ``` ```bash docker pull xxnuo/mtranserver:latest docker compose up -d ``` ## 生态项目 ### IDE 插件 #### [MTranCode](https://github.com/xxnuo/MTranCode) 代码注释翻译插件 支持 VS Code、Cursor、Augment 等 VS Code 系列 IDE 在插件商店搜索 **`MTranCode`** 即可安装注释翻译插件 插件默认接口会调用 `http://localhost:8989` 接口的服务器进行注释、代码的翻译,可在设置中调整。 该插件由 [vscode-comment-translate](https://github.com/intellism/vscode-comment-translate) fork 而来。 ### 浏览器插件 #### [MTranBrowser](https://github.com/xxnuo/MTranBrowser) TODO: 火热开发中 > 如果你开发了衍生项目,欢迎提交 PR,我会在生态项目中添加你的项目。 > 对了项目已经发布到 npm 包,可以直接在其他程序中调用简单的库接口实现翻译功能,具体信息查看 ts 类型说明。 ## 兼容接口 服务器提供了多个翻译插件的兼容接口: | 接口 | 方法 | 说明 | 支持的插件 | | ------------------------------- | ---- | ---------------------------------- | --------------------------------------------------------------------------- | | `/imme` | POST | 沉浸式翻译插件接口 | [沉浸式翻译](https://immersivetranslate.com/) | | `/kiss` | POST | 简约翻译插件接口 | [简约翻译](https://github.com/fishjar/kiss-translator) | | `/deepl` | POST | DeepL API v2 兼容接口 | 支持 DeepL API 的客户端 | | `/deeplx` | POST | DeepLX 兼容接口 | 支持 DeepLX 接口的客户端 | | `/hcfy` | POST | 划词翻译兼容接口 | [划词翻译](https://github.com/Selection-Translator/crx-selection-translate) | | `/hcfy` | POST | 划词翻译兼容接口 | [划词翻译](https://github.com/Selection-Translator/crx-selection-translate) | | `/google/language/translate/v2` | POST | Google Translate API v2 兼容接口 | 支持 Google Translate API 的客户端 | | `/google/translate_a/single` | GET | Google translate_a/single 兼容接口 | 支持 Google 网页翻译的客户端 | **插件配置说明:** > 注: > > - [沉浸式翻译](https://immersivetranslate.com/zh-Hans/docs/services/custom/) 在`设置`页面,开发者模式中启用`Beta`特性,即可在`翻译服务`中看到`自定义 API 设置`([官方图文教程](https://immersivetranslate.com/zh-Hans/docs/services/custom/))。然后将`自定义 API 设置`的`每秒最大请求数`拉高以充分发挥服务器性能准备体验飞一般的感觉。我设置的是`每秒最大请求数`为`512`,`每次请求最大段落数`为`1`。你可以根据自己服务器配置设置。 > > - [简约翻译](https://github.com/fishjar/kiss-translator) 在`设置`页面,接口设置中滚动到下面,即可看到自定义接口 `Custom`。同理,设置`最大请求并发数量`、`每次请求间隔时间`以充分发挥服务器性能。我设置的是`最大请求并发数量`为`100`,`每次请求间隔时间`为`1`。你可以根据自己服务器配置设置。 > > 接下来按下表的设置方法设置插件的自定义接口地址。 | 名称 | URL | 插件设置 | | ---------------- | ---------------------------------------------------- | --------------------------------------------------------------- | | 沉浸式翻译无密码 | `http://localhost:8989/imme` | `自定义API 设置` - `API URL` | | 沉浸式翻译有密码 | `http://localhost:8989/imme?token=your_token` | 同上,需要更改 URL 尾部的 `your_token` 为你的 `MT_API_TOKEN` 值 | | 简约翻译无密码 | `http://localhost:8989/kiss` | `接口设置` - `Custom` - `URL` | | 简约翻译有密码 | `http://localhost:8989/kiss` | 同上,需要 `KEY` 填 `your_token` | | DeepL 兼容 | `http://localhost:8989/deepl` | 使用 `DeepL-Auth-Key` 或 `Bearer` 认证 | | DeepLX 兼容 | `http://localhost:8989/deeplx` | 支持 `token` 参数或 `Bearer` 认证 | | Google 兼容 | `http://localhost:8989/google/language/translate/v2` | 使用 `key` 参数或 `Bearer` 认证 | | 划词翻译 | `http://localhost:8989/hcfy` | 支持 `token` 参数或 `Bearer` 认证 | **普通用户参照表格内容设置好插件使用的接口地址就可以使用了。** ### 命令行参数 ```bash ./mtranserver [选项] 选项: -version, -v 显示版本信息 -log-level string 日志级别 (debug, info, warn, error) (默认 "warn") -config-dir string 配置目录 (默认 "~/.config/mtran/server") -model-dir string 模型目录 (默认 "~/.config/mtran/models") -host string 服务器监听地址 (默认 "0.0.0.0") -port string 服务器端口 (默认 "8989") -ui 启用 Web UI (默认 true) -offline 启用离线模式,不自动下载新模型 (默认 false) -worker-idle-timeout int Worker 空闲超时时间(秒) (默认 300) --download pairs... 下载指定语言对的模型 (例如 --download en_zh zh_en) --languages 列出所有支持下载的语言对 注意:`--download` 和 `--languages` 命令需要联网,无法在离线模式下工作。 示例: ./mtranserver --host 127.0.0.1 --port 8080 ./mtranserver --ui --offline ./mtranserver -v ``` ## 同类项目 列出一些同类功能的项目,如果有其他需求的用户可以尝试这些项目: | 项目名称 | 内存占用 | 并发性能 | 翻译效果 | 速度 | 其他信息 | | ------------------------------------------------------------------ | -------- | -------- | -------- | ---- | --------------------------------------------------------------------------------------------------------------------------------- | | [NLLB](https://github.com/facebookresearch/fairseq/tree/nllb) | 很高 | 差 | 一般 | 慢 | 大佬移植到了 Android 的 [RTranslator](https://github.com/niedev/RTranslator) 有很多优化,但占用仍然高,速度也不快 | | [LibreTranslate](https://github.com/LibreTranslate/LibreTranslate) | 很高 | 一般 | 一般 | 中等 | 中端 CPU 每秒处理 3 句,高端 CPU 每秒处理 15-20 句,[详情](https://community.libretranslate.com/t/performance-benchmark-data/486) | | [OPUS-MT](https://github.com/OpenNMT/CTranslate2#benchmarks) | 高 | 一般 | 略差 | 快 | [性能测试](https://github.com/OpenNMT/CTranslate2#benchmarks) | | 其他大模型 | 超高 | 动态 | 非常好 | 很慢 | 对硬件要求很高,如果需要高并发翻译建议使用 vllm 框架 | | 本项目 | 低 | 高 | 一般 | 极快 | 单个请求平均响应时间 50ms | > 表中为 CPU、英译中场景下的简单测试,非严格测试,非量化版本对比,仅供参考。 # 高级配置说明 请参考 [API.md](API.md) 文件和启动后的 API 文档。 ## Star History [![Star History Chart](https://api.star-history.com/svg?repos=xxnuo/MTranServer&type=Timeline)](https://www.star-history.com/#xxnuo/MTranServer&Timeline) ## Thanks [Bergamot Project](https://browser.mt/) for awesome idea of local translation. [Mozilla](https://github.com/mozilla) for the [models](https://github.com/mozilla/firefox-translations-models).