基于 Transformer 架构的中英机器翻译(汉译英)实现

复制代码
""""
使用transformer架构中,自动模型方式,进行实践。
"""
import os
os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"  # 国内镜像
# os.environ["HF_HUB_DISABLE_SYMLINKS_WARNING"] = "1"  # 可选:关闭 symlink 警告
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
model_name = "Helsinki-NLP/opus-mt-zh-en"
# 确保已安装 sentencepiece!
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
# 测试翻译
text = "我喜欢学习人工智能和自然语言处理。"
inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True)

translated_ids = model.generate(
    **inputs,
    max_new_tokens=256,
    num_beams=4,
    early_stopping=True
)
result = tokenizer.decode(translated_ids[0], skip_special_tokens=True)
print("英文翻译:", result)

基于 Transformer 架构的中英机器翻译(汉译英)实现,使用的是 Hugging Face Transformers 库和预训练模型 Helsinki-NLP/opus-mt-zh-en。下面我们逐部分解释其逻辑,并重点说明它采用的是 Transformer 的哪种模式。

✅ 一、整体架构:Encoder-Decoder(编码器-解码器)模式

🔑 这是标准的 Seq2Seq(Sequence-to-Sequence)任务结构,属于 Transformer 的"完整版"------同时包含编码器和解码器。

📌 为什么是 Encoder-Decoder?

翻译任务:输入一个序列(中文),输出另一个序列(英文)

模型 opus-mt-zh-en 基于 MarianMT,而 MarianMT 是 Facebook/Meta 和 Helsinki-NLP 基于 Transformer Encoder-Decoder 改进的翻译模型

这类模型在训练时学习"源语言 → 目标语言"的映射

✅ 对比其他 Transformer 模式:

表格

模式 典型模型 用途 是否适合翻译

Encoder-only BERT, RoBERTa 分类、抽取 ❌ 不适合生成

Decoder-only GPT, Llama 文本生成 ❌ 无显式编码源句

Encoder-Decoder T5, Bart, MarianMT 翻译、摘要、问答生成 ✅ 最适合翻译!

所以你的代码使用的是 Transformer 的 Encoder-Decoder 模式。

🔍 二、代码逐行解析

. 设置国内镜像(解决网络问题)

python

编辑

os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"

让 transformers 从 HF-Mirror 镜像站 下载模型,避免连接 huggingface.co 超时

. 导入核心模块

python

编辑

from transformers import AutoTokenizer, AutoModelForSeq2SeqLM

AutoTokenizer:自动加载匹配的分词器(这里是 SentencePiece)

AutoModelForSeq2SeqLM:专用于 序列到序列语言建模 的模型类(即 Encoder-Decoder)

⚠️ 注意:不能用 AutoModel 或 AutoModelWithLMHead,必须用 ForSeq2SeqLM

. 指定模型名称

python

编辑

model_name = "Helsinki-NLP/opus-mt-zh-en"

这是一个在 OPUS 平行语料上训练的 中→英翻译模型

基于 Transformer Encoder-Decoder,约 6 层编码器 + 6 层解码器

. 加载分词器和模型

python

编辑

tokenizer = AutoTokenizer.from_pretrained(model_name)

model = AutoModelForSeq2SeqLM.from_pretrained(model_name)

自动下载并缓存模型权重和 tokenizer 配置

tokenizer 内部使用 SentencePiece 对中英文进行子词切分

. 准备输入文本

python

编辑

text = "我喜欢学习人工智能和自然语言处理。"

inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True)

tokenizer 将中文转为 token ID 序列(如 [872, 123, 456, ...])

return_tensors="pt":返回 PyTorch 张量(input_ids, attention_mask)

这些张量将送入 Encoder

. 生成翻译结果(关键:解码过程)

python

编辑

translated_ids = model.generate(

**inputs,

max_new_tokens=100,

num_beams=4,

early_stopping=True

)

🔁 内部发生了什么?

Encoder 接收 input_ids,将其编码为上下文表示(contextual embeddings)

Decoder 以 <s>(起始符)开头,逐步生成目标 token:

每一步都通过 Self-Attention 关注已生成的部分

通过 Cross-Attention 查询 Encoder 的输出(理解源句)

使用 Beam Search(束搜索)(num_beams=4)寻找更优翻译路径

最多生成 100 个新 token(不包括输入)

✅ 这就是典型的 自回归(Autoregressive)生成 + Encoder-Decoder 协同工作

. 解码输出

python

编辑

result = tokenizer.decode(translated_ids[0], skip_special_tokens=True)

print("英文翻译:", result)

将生成的 token ID 转回字符串

skip_special_tokens=True:去掉 <pad>, </s> 等特殊符号

🧠 三、Transformer Encoder-Decoder 在翻译中的作用

表格

组件 功能

Encoder 理解中文句子的语义,输出每个词的上下文向量

Decoder 根据 Encoder 输出,逐词生成英文,确保语义一致

Cross-Attention 让 Decoder 在生成每个英文词时,"回头看"中文原文(如生成 "I" 时关注 "我")

Positional Encoding 保留词序信息(因为 Transformer 本身无顺序感知)

📌 四、总结:这段代码的技术栈

表格

技术点 说明

模型架构 Transformer Encoder-Decoder(Seq2Seq)

任务类型 机器翻译(Chinese → English)

生成策略 Beam Search(num_beams=4)

依赖库 Hugging Face Transformers + PyTorch + SentencePiece

部署方式 CPU 推理(默认),可加 .to('cuda') 用 GPU

💡 补充:如何验证是 Encoder-Decoder?

你可以打印模型结构:

python

编辑

print(model)

会看到类似:

text

编辑

MarianMTModel(

(model): MarianModel(

(encoder): MarianEncoder(...)

(decoder): MarianDecoder(...)

)

(lm_head): Linear(...)

)


这明确表明:有独立的 encoder 和 decoder 模块。

✅ 结论:

你这段代码完美体现了 Transformer 的 Encoder-Decoder 模式在机器翻译中的应用,是现代 NLP 中最经典的 Seq2Seq 实现之一。

相关推荐
琛説2 小时前
【时间序列】MSSP股票数据集(含市场情绪、上证指数等指标)
深度学习·数据分析
棒棒的皮皮2 小时前
【深度学习】YOLO 模型典型应用场景分析(安防 / 自动驾驶 / 工业质检 / 医疗影像 / 智慧城市)
人工智能·深度学习·yolo·计算机视觉·自动驾驶
koo3642 小时前
pytorch深度学习笔记15
pytorch·笔记·深度学习
仙女修炼史3 小时前
How transferable are features in deep neural networks
人工智能·深度学习·学习
鲨莎分不晴3 小时前
FNN vs CNN 完全对比指南
深度学习·神经网络·cnn
CoovallyAIHub3 小时前
仅192万参数的目标检测模型,Micro-YOLO如何做到目标检测精度与效率兼得
深度学习·算法·计算机视觉
liu****3 小时前
深度学习简介
人工智能·python·深度学习·python基础
机器学习之心3 小时前
SSA-TCN-Transformer组合模型回归+SHAP分析+新数据预测+多输出!深度学习可解释分析
深度学习·回归·transformer·shap分析
TAICHIFEI3 小时前
Hugging Face 的 Transformers库
人工智能·深度学习·学习·自然语言处理