基于 Transformer 架构的中英机器翻译(汉译英)实现

复制代码
""""
使用transformer架构中,自动模型方式,进行实践。
"""
import os
os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"  # 国内镜像
# os.environ["HF_HUB_DISABLE_SYMLINKS_WARNING"] = "1"  # 可选:关闭 symlink 警告
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
model_name = "Helsinki-NLP/opus-mt-zh-en"
# 确保已安装 sentencepiece!
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
# 测试翻译
text = "我喜欢学习人工智能和自然语言处理。"
inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True)

translated_ids = model.generate(
    **inputs,
    max_new_tokens=256,
    num_beams=4,
    early_stopping=True
)
result = tokenizer.decode(translated_ids[0], skip_special_tokens=True)
print("英文翻译:", result)

基于 Transformer 架构的中英机器翻译(汉译英)实现,使用的是 Hugging Face Transformers 库和预训练模型 Helsinki-NLP/opus-mt-zh-en。下面我们逐部分解释其逻辑,并重点说明它采用的是 Transformer 的哪种模式。

✅ 一、整体架构:Encoder-Decoder(编码器-解码器)模式

🔑 这是标准的 Seq2Seq(Sequence-to-Sequence)任务结构,属于 Transformer 的"完整版"------同时包含编码器和解码器。

📌 为什么是 Encoder-Decoder?

翻译任务:输入一个序列(中文),输出另一个序列(英文)

模型 opus-mt-zh-en 基于 MarianMT,而 MarianMT 是 Facebook/Meta 和 Helsinki-NLP 基于 Transformer Encoder-Decoder 改进的翻译模型

这类模型在训练时学习"源语言 → 目标语言"的映射

✅ 对比其他 Transformer 模式:

表格

模式 典型模型 用途 是否适合翻译

Encoder-only BERT, RoBERTa 分类、抽取 ❌ 不适合生成

Decoder-only GPT, Llama 文本生成 ❌ 无显式编码源句

Encoder-Decoder T5, Bart, MarianMT 翻译、摘要、问答生成 ✅ 最适合翻译!

所以你的代码使用的是 Transformer 的 Encoder-Decoder 模式。

🔍 二、代码逐行解析

. 设置国内镜像(解决网络问题)

python

编辑

os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"

让 transformers 从 HF-Mirror 镜像站 下载模型,避免连接 huggingface.co 超时

. 导入核心模块

python

编辑

from transformers import AutoTokenizer, AutoModelForSeq2SeqLM

AutoTokenizer:自动加载匹配的分词器(这里是 SentencePiece)

AutoModelForSeq2SeqLM:专用于 序列到序列语言建模 的模型类(即 Encoder-Decoder)

⚠️ 注意:不能用 AutoModel 或 AutoModelWithLMHead,必须用 ForSeq2SeqLM

. 指定模型名称

python

编辑

model_name = "Helsinki-NLP/opus-mt-zh-en"

这是一个在 OPUS 平行语料上训练的 中→英翻译模型

基于 Transformer Encoder-Decoder,约 6 层编码器 + 6 层解码器

. 加载分词器和模型

python

编辑

tokenizer = AutoTokenizer.from_pretrained(model_name)

model = AutoModelForSeq2SeqLM.from_pretrained(model_name)

自动下载并缓存模型权重和 tokenizer 配置

tokenizer 内部使用 SentencePiece 对中英文进行子词切分

. 准备输入文本

python

编辑

text = "我喜欢学习人工智能和自然语言处理。"

inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True)

tokenizer 将中文转为 token ID 序列(如 [872, 123, 456, ...])

return_tensors="pt":返回 PyTorch 张量(input_ids, attention_mask)

这些张量将送入 Encoder

. 生成翻译结果(关键:解码过程)

python

编辑

translated_ids = model.generate(

**inputs,

max_new_tokens=100,

num_beams=4,

early_stopping=True

)

🔁 内部发生了什么?

Encoder 接收 input_ids,将其编码为上下文表示(contextual embeddings)

Decoder 以 <s>(起始符)开头,逐步生成目标 token:

每一步都通过 Self-Attention 关注已生成的部分

通过 Cross-Attention 查询 Encoder 的输出(理解源句)

使用 Beam Search(束搜索)(num_beams=4)寻找更优翻译路径

最多生成 100 个新 token(不包括输入)

✅ 这就是典型的 自回归(Autoregressive)生成 + Encoder-Decoder 协同工作

. 解码输出

python

编辑

result = tokenizer.decode(translated_ids[0], skip_special_tokens=True)

print("英文翻译:", result)

将生成的 token ID 转回字符串

skip_special_tokens=True:去掉 <pad>, </s> 等特殊符号

🧠 三、Transformer Encoder-Decoder 在翻译中的作用

表格

组件 功能

Encoder 理解中文句子的语义,输出每个词的上下文向量

Decoder 根据 Encoder 输出,逐词生成英文,确保语义一致

Cross-Attention 让 Decoder 在生成每个英文词时,"回头看"中文原文(如生成 "I" 时关注 "我")

Positional Encoding 保留词序信息(因为 Transformer 本身无顺序感知)

📌 四、总结:这段代码的技术栈

表格

技术点 说明

模型架构 Transformer Encoder-Decoder(Seq2Seq)

任务类型 机器翻译(Chinese → English)

生成策略 Beam Search(num_beams=4)

依赖库 Hugging Face Transformers + PyTorch + SentencePiece

部署方式 CPU 推理(默认),可加 .to('cuda') 用 GPU

💡 补充:如何验证是 Encoder-Decoder?

你可以打印模型结构:

python

编辑

print(model)

会看到类似:

text

编辑

MarianMTModel(

(model): MarianModel(

(encoder): MarianEncoder(...)

(decoder): MarianDecoder(...)

)

(lm_head): Linear(...)

)


这明确表明:有独立的 encoder 和 decoder 模块。

✅ 结论:

你这段代码完美体现了 Transformer 的 Encoder-Decoder 模式在机器翻译中的应用,是现代 NLP 中最经典的 Seq2Seq 实现之一。

相关推荐
2的n次方_1 小时前
CANN ascend-transformer-boost 架构解析:融合注意力算子管线、长序列分块策略与图引擎协同机制
深度学习·架构·transformer
人工智能培训1 小时前
具身智能视觉、触觉、力觉、听觉等信息如何实时对齐与融合?
人工智能·深度学习·大模型·transformer·企业数字化转型·具身智能
pp起床3 小时前
Gen_AI 补充内容 Logit Lens 和 Patchscopes
人工智能·深度学习·机器学习
阿杰学AI3 小时前
AI核心知识91——大语言模型之 Transformer 架构(简洁且通俗易懂版)
人工智能·深度学习·ai·语言模型·自然语言处理·aigc·transformer
芷栀夏4 小时前
CANN ops-math:筑牢 AI 神经网络底层的高性能数学运算算子库核心实现
人工智能·深度学习·神经网络
Yeats_Liao6 小时前
评估体系构建:基于自动化指标与人工打分的双重验证
运维·人工智能·深度学习·算法·机器学习·自动化
Tadas-Gao7 小时前
缸中之脑:大模型架构的智能幻象与演进困局
人工智能·深度学习·机器学习·架构·大模型·llm
2301_818730567 小时前
transformer(上)
人工智能·深度学习·transformer
木枷7 小时前
Online Process Reward Learning for Agentic Reinforcement Learning
人工智能·深度学习·机器学习
陈天伟教授8 小时前
人工智能应用- 语言处理:02.机器翻译:规则方法
人工智能·深度学习·神经网络·语言模型·自然语言处理·机器翻译