1.8B 体积、33 种语言互译|腾讯混元 HY-MT1.5-1.8B 多语言机器翻译模型上线

在跨语言交流日益频繁的今天,阅读外语菜单、处理多语言邮件、与不同语言背景的人沟通,已经成为很多人日常工作与生活的一部分。过去,这类需求往往依赖联网翻译工具,而如今,在端侧完成多语言互译正在成为可行选项 ------ 一部设备即可支持多达 33 种语言的相互翻译。

当 AI 不再只是"逐字直译",而是开始理解语境、风格与语言之间的细微差异,机器翻译就真正具备了工程级可用性与语义深度。

今天为大家介绍一款高质量、多语言、支持端侧部署的机器翻译模型 ------ 腾讯混元 HY-MT1.5-1.8B,现已上线 AtomGit AI 社区,支持在线体验与调用。

👉 在线体验入口:https://ai.gitcode.com/tencent_hunyuan/HY-MT1.5-1.8B/model-inference

01|多语言强互译,覆盖真实业务场景

HY-MT1.5-1.8B 是腾讯推出的一款面向真实业务场景的多语言机器翻译模型,主打高质量互译能力与端侧可部署特性。模型在保证翻译效果的同时,对体量与推理性能进行了针对性优化,适合在移动端与边缘设备上使用。

其核心特性可以从几个关键指标中直观体现:

  • **1.8B 参数规模:**在轻量化模型中兼顾翻译质量与语义理解能力

  • **约 1GB 模型体量:**支持端侧部署,降低对网络与算力环境的依赖

  • **约 0.18 秒推理延迟:**在常见输入长度下实现快速响应

  • **覆盖 33 种语言:**支持中、英、法、德等主流语言,以及冰岛语、爱沙尼亚语等小语种互译

通过多语言覆盖与低时延推理能力,HY-MT1.5-1.8B 能够更好地适配跨语言沟通、移动翻译、出海业务等实际应用场景。

02|小模型,也有大能量

HY-MT1.5-1.8B 的核心优势,在于在模型体积、推理速度与翻译体验之间实现了较为难得的平衡。在参数规模相对克制的前提下,该模型依然能够在手机、平板乃至边缘设备上,提供接近云端大模型的翻译效果,其关键并不在于"更大",而在于更有针对性的训练与优化。

🌟 体积更小,跑得更快

  • 模型只有 18 亿参数,体积比常见的 7B 模型小近 3 倍,量化后最低只需 1GB 内存,几乎和一部高清电影差不多大。

  • 提供多种量化版本(FP8、INT4),可根据设备性能自由选择,既要速度也能保质量。

💻 本地运行,真正离线

  • 不依赖网络,翻译过程完全在设备本地完成,适合出差、旅行、展会等网络不稳或无法联网的场景。

  • 实测在普通手机上翻译 50 个词只需 0.18 秒,比很多在线翻译接口还快,真正做到了"边说边翻"。

📱 适配多类终端设备

  • 已验证可在手机、车载系统、安卓工控盒、甚至树莓派上稳定运行。

  • 对于需要快速响应的场景,如输入法实时翻译、客服对话、浏览器划词翻译等,体验提升非常明显。

03|小参数,也能有好表现

尽管 HY-MT1.5-1.8B的参数规模相对克制,其训练过程并不简化。腾讯混元团队围绕机器翻译任务,设计了一套多阶段、分层次的训练流程,使模型不仅具备多语言理解能力,也具备稳定、可靠的翻译表现。

🔧 五段式训练流程,层层递进

  • **通用预训练:**先让模型在多语言大语料上"广泛阅读",建立语言基础。

  • **翻译定向训练:**再用翻译专用语料进行任务强化,学会语言之间的转换逻辑。

  • **有监督精调:**引入高质量双语数据,提升翻译准确度,减少"机器味"。

  • **大模型带小模型(蒸馏):**用更大的 7B 模型当老师,手把手教 1.8B 如何"翻译得更地道"。

  • **强化学习优化:**最后通过策略优化,让模型在表达自然度、术语一致性等方面更贴近人类偏好。

✍️ 翻译质量不输大模型

在多个权威测试集(如 Flores-200、WMT25)中,HY-MT1.5-1.8B 的表现不仅领先于同量级开源模型,也超过了不少商业翻译接口,整体水平已接近超大闭源模型的 90% 水准。

04|不只是翻译,更是"翻译+"

在实际业务场景中,机器翻译的要求并不仅限于语言转换本身,还需要同时兼顾**术语一致性、上下文连贯性以及原始格式的完整保留。**这些因素,往往决定了一款翻译模型能否直接进入生产环境。

围绕上述需求,HY-MT1.5-1.8B在翻译能力之外,引入了多项面向实际应用的增强机制,使其更适合在真实业务中落地。

📖 术语干预:保障专业表达一致性

模型支持用户自定义术语表,可指定特定词汇的固定译法。例如,在专业文档或品牌场景中,关键术语将优先按预设规则翻译,避免自由发挥。这一能力在法律、医疗、企业品牌内容等场景中尤为重要。

👀 上下文感知:提升长文本翻译稳定性

模型支持结合上下文进行翻译,有效减少同一词语在不同句子中出现歧义或译法不一致的问题。在客服对话、多轮交互及长文档翻译中,可显著提升整体连贯性与风格统一性。

📚 格式保留:结构不变,内容可用

在翻译 HTML、Markdown、表格、代码注释等结构化文本时,模型能够保留原有标签与排版结构,仅对文本内容进行翻译,降低后续人工校对与格式整理成本。

🌟|推理 API 即开即用

无需复杂部署,通过 推理 API 即可快速体验HY-MT1.5-1.8B的翻译能力。

进入AtomGit AI社区工作台,按以下步骤完成配置即可调用模型:

  1. 进入工作台,点击 API 密钥;

  2. 新建 API 密钥,支持选择「仅创建时可见」或「支持多次查看」;

  3. 密钥创建完成后,即可在代码中直接调用HY-MT1.5-1.8B 进行文本翻译。

👉 工作台入口: https://ai.gitcode.com/dashboard?tab=created&subtab=all

🪄|性能与优势一览

在轻量化参数规模下,HY-MT1.5-1.8B在翻译质量、响应速度与工程可用性之间实现了良好平衡。在多项公开测试中,其整体表现已接近更大体量模型,在部分民汉翻译场景中表现尤为突出。

🤖 模型体积

模型量化后约1 GB,可直接部署于手机及边缘设备。在无网络或网络受限环境下,依然能够稳定提供翻译能力。

🔍 语言覆盖

支持 33 种语言互译,覆盖中文、英语、日语、法语、德语、西班牙语、俄语、阿拉伯语、印地语、泰语、越南语、印尼语、马来语、菲律宾语、葡萄牙语、意大利语、荷兰语、波兰语、捷克语、北欧语言等,同时支持 藏语、维吾尔语、蒙古语、壮语、粤语 等民族语言与方言,满足更广泛的跨语言需求。

👍 翻译质量

在公开测试集中,中英互译、英外互译及民族语言翻译等多个方向上,模型得分高于多数同类商业接口,整体表现接近更大规模的旗舰模型。

🔢 工程落地能力

支持术语表约束、上下文连续翻译以及结构化文本格式保留,可直接应用于技术文档、网页内容、表格与业务系统翻译,减少后处理成本,提升实际使用效率。

👋|快速体验模型能力

1️⃣ 方式一:在线体验

立即访问:https://ai.gitcode.com/tencent_hunyuan/HY-MT1.5-1.8B/model-inference

上传文本,选择目标语言,即可获得翻译结果,支持直观对比与多语言输入。

2️⃣ 方式二:调用推理 API

  • 支持批量翻译

  • 输出格式结构清晰

  • 易集成到产品线、工作流、客户端等

欢迎前往AtomGit AI社区 模型广场 ,即刻体验 HY-MT1.5-1.8B 的翻译能力:https://ai.gitcode.com/tencent_hunyuan/HY-MT1.5-1.8B/model-inference

相关推荐
AI医影跨模态组学5 分钟前
如何将纵向MRI深度学习特征与局部晚期直肠癌新辅助放化疗后的免疫微环境建立关联,并解释其对pCR及预后的机制
人工智能·深度学习·论文·医学·医学影像·影像组学
Empty-Filled6 分钟前
AI生成测试用例功能怎么测:一个完整实战案例
网络·人工智能·测试用例
eastyuxiao7 分钟前
设计一个基于 OpenClaw 的 AI 智能体来辅助交易
人工智能
波动几何37 分钟前
因果动力学架构技能cda
人工智能
Lucas_coding39 分钟前
【Claude Code Router】 Claude Code 兼容 OpenAI 格式 API, Claude code 接入本地部署模型
人工智能·python
jinanwuhuaguo41 分钟前
(第二十七篇)OpenClaw四月的演化风暴:OpenClaw 2026年4月全版本更新的文明级解读
大数据·人工智能·架构·kotlin·openclaw
测试员周周43 分钟前
【AI测试系统】第5篇:从 Archon 看 AI 工程化落地:为什么"确定性编排+AI 弹性智能"是终局?
人工智能·python·测试
RxGc1 小时前
微软AI Agent框架深度测评:Microsoft Agent Framework 1.0 vs OpenClaw/Claude企业级能力对比
人工智能·agent
随便写写1 小时前
第四章 智能体经典范式构建
人工智能
穿过生命散发芬芳1 小时前
基于CodeBuddy Agent智能体平台构建自己第一个SKILL——相机推荐
人工智能