腾讯开源混元翻译——HY-MT1.5

模型介绍

混元翻译模型1.5版本包含1.8B翻译模型HY-MT1.5-1.8B和7B翻译模型HY-MT1.5-7B。两模型均聚焦支持33种语言互译,并包含5种民族语和方言变体。其中HY-MT1.5-7B为WMT25夺冠模型的升级版本,优化了注释翻译和混合语种场景,新增支持术语干预、上下文翻译、格式翻译等功能。HY-MT1.5-1.8B参数量不足HY-MT1.5-7B的三分之一,但翻译效果媲美7B模型,兼顾速度与质量。1.8B模型量化后可在端侧部署,支持实时翻译场景,具备广泛适用性。

核心特点与优势

  • HY-MT1.5-1.8B达到同规模模型业界领先效果,超越多数商用翻译API。
  • HY-MT1.5-1.8B支持端侧部署及实时翻译场景,适用性广泛。
  • HY-MT1.5-7B相较9月开源版本,优化了注释翻译和混合语种场景。
  • 两模型均支持术语干预、上下文翻译、格式翻译。

相关动态

  • 2025.12.30,我们在Hugging Face开源了HY-MT1.5-1.8BHY-MT1.5-7B
  • 2025.9.1,我们在Hugging Face开源了混元-MT-7B混元-MT-Chimera-7B

性能表现

您可以参考我们的技术报告以获取更多实验结果和分析。

Technical Report

模型链接

模型名称 描述 下载地址
HY-MT1.5-1.8B 混元1.8B翻译模型 🤗 模型
HY-MT1.5-1.8B-FP8 混元1.8B翻译模型,fp8量化版 🤗 模型
HY-MT1.5-7B 混元7B翻译模型 🤗 模型
HY-MT1.5-7B-FP8 混元7B翻译模型,fp8量化版 🤗 模型

提示词

ZH<=>XX 翻译的提示模板.


复制代码
将以下文本翻译为{target_language},注意只需要输出翻译后的结果,不要额外解释:

{source_text}

适用于XX<=>XX翻译的提示模板(不包括中文<=>XX)


复制代码
Translate the following segment into {target_language}, without additional explanation.

{source_text}

术语干预的提示模板。


复制代码
参考下面的翻译:
{source_term} 翻译成 {target_term}

将以下文本翻译为{target_language},注意只需要输出翻译后的结果,不要额外解释:
{source_text}

上下文翻译的提示模板


复制代码
{context}
参考上面的信息,把下面的文本翻译成{target_language},注意不需要翻译上文,也不要额外解释:
{source_text}

格式化翻译的提示模板


复制代码
将以下<source></source>之间的文本翻译为中文,注意只需要输出翻译后的结果,不要额外解释,原文中的<sn></sn>标签表示标签内文本包含格式信息,需要在译文中相应的位置尽量保留该标签。输出格式为:<target>str</target>

<source>{src_text_with_format}</source>

与 transformers 一起使用

首先,请安装 transformers,推荐版本 v4.56.0

SHELL 复制代码
pip install transformers==4.56.0

!!! 如需使用transformers加载fp8模型,您需要将config.json中的"ignored_layers"字段名称改为"ignore",并将compressed-tensors升级至compressed-tensors-0.11.0版本。

以下代码片段展示了如何使用transformers库加载并应用该模型。

我们以tencent/HY-MT1.5-1.8B模型为例

python 复制代码
from transformers import AutoModelForCausalLM, AutoTokenizer
import os

model_name_or_path = "tencent/HY-MT1.5-1.8B"

tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)
model = AutoModelForCausalLM.from_pretrained(model_name_or_path, device_map="auto")  # You may want to use bfloat16 and/or move to GPU here
messages = [
    {"role": "user", "content": "Translate the following segment into Chinese, without additional explanation.\n\nIt's on the house."},
]
tokenized_chat = tokenizer.apply_chat_template(
    messages,
    tokenize=True,
    add_generation_prompt=False,
    return_tensors="pt"
)

outputs = model.generate(tokenized_chat.to(model.device), max_new_tokens=2048)
output_text = tokenizer.decode(outputs[0])

我们推荐使用以下参数集进行推理。请注意,我们的模型没有默认的system_prompt。

json 复制代码
{
  "top_k": 20,
  "top_p": 0.6,
  "repetition_penalty": 1.05,
  "temperature": 0.7
}

支持的语言:

语言 缩写 中文名称
Chinese zh 中文
English en 英语
French fr 法语
Portuguese pt 葡萄牙语
Spanish es 西班牙语
Japanese ja 日语
Turkish tr 土耳其语
Russian ru 俄语
Arabic ar 阿拉伯语
Korean ko 韩语
Thai th 泰语
Italian it 意大利语
German de 德语
Vietnamese vi 越南语
Malay ms 马来语
Indonesian id 印尼语
Filipino tl 菲律宾语
Hindi hi 印地语
Traditional Chinese zh-Hant 繁体中文
Polish pl 波兰语
Czech cs 捷克语
Dutch nl 荷兰语
Khmer km 高棉语
Burmese my 缅甸语
Persian fa 波斯语
Gujarati gu 古吉拉特语
Urdu ur 乌尔都语
Telugu te 泰卢固语
Marathi mr 马拉地语
Hebrew he 希伯来语
Bengali bn 孟加拉语
Tamil ta 泰米尔语
Ukrainian uk 乌克兰语
Tibetan bo 藏语
Kazakh kk 哈萨克语
Mongolian mn 蒙古语
Uyghur ug 维吾尔语
Cantonese yue 粤语
相关推荐
AI视觉网奇5 分钟前
ue 角色驱动衣服 绑定衣服
笔记·学习·ue5
冬奇Lab28 分钟前
一天一个开源项目(第16篇):Code2Video - 用代码生成高质量教学视频的智能框架
开源·aigc·音视频开发
想用offer打牌36 分钟前
MCP (Model Context Protocol) 技术理解 - 第一篇
后端·aigc·mcp
盛夏光年爱学习43 分钟前
摘要、压缩与处理大工具输出的工程实践
aigc
一只大侠的侠1 小时前
Flutter开源鸿蒙跨平台训练营 Day7Flutter+ArkTS双方案实现轮播图+搜索框+导航组件
flutter·开源·harmonyos
聆风吟º1 小时前
CANN开源项目实战指南:使用oam-tools构建自动化故障诊断与运维可观测性体系
运维·开源·自动化·cann
wdfk_prog1 小时前
[Linux]学习笔记系列 -- [drivers][input]serio
linux·笔记·学习
一只大侠的侠2 小时前
Flutter开源鸿蒙跨平台训练营 Day9分类数据的获取与渲染实现
flutter·开源·harmonyos
一只大侠的侠2 小时前
Flutter开源鸿蒙跨平台训练营 Day 5Flutter开发鸿蒙电商应用
flutter·开源·harmonyos
ZH15455891313 小时前
Flutter for OpenHarmony Python学习助手实战:GUI桌面应用开发的实现
python·学习·flutter