使用智谱AI大模型翻译视频字幕

不久前,国内的头部大模型厂商智谱 AI ,刚刚推出了 glm-4-0520 模型,该模型被认为是当前平台最先进的模型,具备 128k 的上下文长度,并且相较于前一代模型,指令遵从能力大幅提升 18.6%。可以看出,智谱AI对于该模型寄予厚望。

为了验证这个大模型的性能,我们尝试用它来实现【视频字幕翻译】功能。目前很多视频网站(如B站)上面,大量优质内容都是英文的,并且也没有配备中文的字幕翻译,这对于很多人来说,大大降低了观看体验。因此,我们决定利用大模型,将视频的字幕翻译成中文,这样就可以快速理解视频的大致内容,大幅提升工作与学习效率。

下面,我们以 B站 上的视频为例,来实现这个功能。视频链接:https://www.bilibili.com/video/BV1g84y1R7oE/?vd_source=2fd71d56662056b97691b4d7bdf39151

话不多说,开始写代码。

现在很多视频网站都提供了 OpenAPI,支持获取视频和字幕等相关信息。为了方便开发,我们直接采用 LangChain 封装好的 BiliBiliLoader 来实现视频字幕的加载功能:

首先,我们需要在浏览器登录B站,并且浏览器的开发者工具,获取SESSDATA、JCT 和 BUVID3信息,并保存到环境变量中:

shell 复制代码
# B站相关配置
BiliBili_SESSDATA=xxx
BiliBili_JCT=xxx
BiliBili_BUVID3=xxx

接下来,我们通过 BiliBiliLoader 工具,加载该视频对应的字幕文本:

python 复制代码
import os

import dotenv
from langchain_community.document_loaders import BiliBiliLoader

# 加载环境变量
dotenv.load_dotenv()

# 创建B站字幕文档加载器
loader = BiliBiliLoader(
    video_urls=["https://www.bilibili.com/video/BV1g84y1R7oE/"],
    sessdata=os.getenv("BiliBili_SESSDATA"),
    bili_jct=os.getenv("BiliBili_JCT"),
    buvid3=os.getenv("BiliBili_BUVID3"),
)

# 加载完整字幕
full_caption = loader.load()
print(f"完整字幕: {full_caption[0].page_content[:1000]}")

部分字幕内容如下:

完整字幕: Video Title: Let's Learn English on a Hike! 🍂🚶🏼🎒 【英文字幕】, description: Have you ever learned English in nature? In this English lesson I take you to a hiking trail near me and teach you all of the words and phrases you'll need to know to have a conversation about hiking.

In this free English class you'll learn words and phrases like: trail, path, treacherous, view, sign, observation deck, gear, hiking boots, dangerous animals, racoon, skunk, and more.

...

为了便于后面的翻译,我们将完整的字幕长文本进行切割,拆分成多个字幕块:

python 复制代码
# 创建文档分割器,将原始字幕文本分割成更小的片段
splitter = RecursiveCharacterTextSplitter(chunk_size=200,

chunk_overlap=10)

caption_chunks = splitter.split_documents(full_caption)
print(f"切割后的分块大小: {len(caption_chunks)}")

我们指定了每个文档分块大小为200,块之间的重叠为10,这样将原始的字幕分割成了46个文档片段。

下面,我们就可以利用智谱AI的 glm-4-0520 大模型,将原版的英文字幕翻译成中文:

python 复制代码
# 构造Chain,将原版的英文字幕翻译成中文
llm = ChatZhipuAI(model="glm-4-0520", temperature=0)  # 使用智谱AIglm-4-0520大模型
chain = (
        {"content": lambda x: x.page_content}
        | ChatPromptTemplate.from_template("你是一个翻译专家,请将输入的英文翻译成中文: {content}")
        | llm
        | StrOutputParser()
)
chinese_captions = chain.batch(caption_chunks, config={"max_concurrency": 1})

full_english_caption = "\n".join([caption.page_content for caption in caption_chunks])
full_chinese_caption = "\n".join(chinese_captions)
print(f"原版英文字幕: \n{full_english_caption}")
print(f"翻译后的中文字幕: \n{full_chinese_caption}")

翻译后的中文字幕如下:

视频标题:让我们在徒步中学习英语吧!🍂🚶🏼🎒【英文字幕】

描述:你有没有在自然环境中学习过英语?在这个英语课程中,我将带你到我附近的一条徒步小径,教你所有的......(此处原文未给出完整内容,因此翻译也无法完整)

你需要知道的单词和短语,以便进行关于徒步旅行的对话。

在这个免费的英语课程中,你将学习到如下单词和短语:小径、路径、危险重重、景观、标志、观景台、装备、徒步靴、危险动物、浣熊、臭鼬等等。

...

大功告成!现在我们已经拿到了翻译后的中文字幕。大致看来,语义和文法还算比较通顺。但是这只是我们直观上的感受,有没有什么量化的方式,可以评估翻译的效果呢?还是有的,我们可以利用大模型的 Embedding 能力,计算下原版的英文字幕和翻译后的中文字幕在语言上的相似性,如果二者的相似度很高,则大概率可以说明翻译基本复现了原始的内容。当然还有更准确的评估方式,我们这里暂时不做展开了。

最后,我们可以利用智谱AI刚刚推出的 embedding-3 这个 Embedding 模型,计算下两个字幕的语义相似度:

python 复制代码
# 计算原版英文字幕和翻译后的中文字幕在语义上的相似度
embeddings = ZhipuAIEmbeddings(model="embedding-3")
english_embedding = embeddings.embed_documents([full_english_caption])

chinese_embedding = embeddings.embed_documents([full_chinese_caption])

similarity = cosine_similarity(X=english_embedding,Y=chinese_embedding)[0]

print(f"两个字幕的语义相似度: {similarity}")

两个字幕的语义相似度: [0.73141426]

可以看出,最终两个字幕 Embedding 的余弦相似度超过了0.7,说明大模型的翻译效果还是不错的。

综上所述:针对语料的翻译工作,glm-4-0520 应该是一个不错的选择。

相关推荐
dundunmm25 分钟前
分类算法可视化方法
人工智能·分类·数据挖掘·可视化
DA树聚28 分钟前
LLM 工程师入门:生成式AI的简易指南
人工智能·程序人生·ai·chatgpt·产品经理
kkai人工智能43 分钟前
掌握ChatGPT:高效利用AI助手
人工智能·学习·ai·chatgpt·媒体
Successssss~1 小时前
【南京工业大学主办,JPCS出版】自动化、电气控制系统与设备
运维·人工智能·机器学习·自动化·材料工程
机械心1 小时前
人工智能辅助汽车造型设计
人工智能
心心喵2 小时前
[论文笔记] LLM端侧小模型篇——1、剪枝量化的latency
人工智能
hyk今天写算法了吗2 小时前
凸优化学习(2)——梯度类方法求解(gradient descent)
人工智能·深度学习·学习·梯度下降·凸优化
算力资源比较多3 小时前
人工智能(AI)正在以前所未有的速度融入我们生活的方方面面
人工智能·智能家居
wukangjupingbb3 小时前
数据资产盘点
大数据·人工智能
奔跑草-3 小时前
【拥抱AI】沉浸式体验SpaCy开源分词器
人工智能·大模型·数据清洗·rag·spacy·数据分词